Bronies.de

Normale Version: Computer/Hardware SOS
Du siehst gerade eine vereinfachte Darstellung unserer Inhalte. Normale Ansicht mit richtiger Formatierung.
Achso, sry. Keine Ahnung. vielleicht gibt es gar keine DVI-I Buchse an Monitoren. Und wenn, sind es nur aussparungen, um die Kompatiblität zu halten. Kann ich mir so auf jeden fall vorstellen.
Die Frage ist Kompatibilität zu was? DVI-I Kabel wie 404compliant eins hat, sind ja auch vollkommen nutzlos, auch wenn sie zu existieren scheinen. Derpy confused
(11.02.2016)handyhacker schrieb: [ -> (Öffnen)
Herzlichen Glückwunsch, du hast den Speichercontroller der CPU geschrottet. Eventuell.
Schau nochmal ob alle Federkontakte des CPU Sockels gerade sind. Vielleicht haste Glück und einer hat keinen Kontakt.
Wenn du zusätzlich stromleitende Wärmeleitpaste hast (die gibts, und glänzt meist silbrig Wink )dann haste da was überbrückt.

Einen ähnlichen Fall gabs vor kurzem hier: http://www.computerbase.de/forum/showthread.php?t=1557142
Die Idee ist ne andere, der Weg zum Fehler eventuell der Gleiche und der Fehler vermutlich aus gleichen Gründen entstanden
(12.02.2016)Conqi schrieb: [ -> ]Die Frage ist Kompatibilität zu was? DVI-I Kabel wie 404compliant eins hat, sind ja auch vollkommen nutzlos, auch wenn sie zu existieren scheinen. Derpy confused

Nahezu. Es sei denn, man hat einen Analog-Monitor, der tatsächlich einen DVI-A Anschluss hat. So ein Zufall, genau so einen hatte ich. Wie ich oben geschrieben hab.

Wie gesagt, es geht mir ja nicht mal um die Funktionalität. Es geht mir nur darum, dass die Löcher im Plastik fehlten, um den Stecker mechanisch rein zu kriegen. Und ja, ich habe kurz an eine heiße Nadel oder an eine Kneifzange gedacht, bevor ich ein Kabel bestellt hab.
(12.02.2016)404compliant schrieb: [ -> ]
(12.02.2016)Conqi schrieb: [ -> ]Die Frage ist Kompatibilität zu was? DVI-I Kabel wie 404compliant eins hat, sind ja auch vollkommen nutzlos, auch wenn sie zu existieren scheinen. Derpy confused

Nahezu. Es sei denn, man hat einen Analog-Monitor, der tatsächlich einen DVI-A Anschluss hat. So ein Zufall, genau so einen hatte ich. Wie ich oben geschrieben hab.

DVI-A habe ich in freier Wildbahn aber auch noch nie gesehen. Und sofern die DVI-A Buchse nicht ebenfalls alle 24+5 Löcher hatte (was ich sehr verwirrend finden würde), ist das DVI-I Kabel wieder nutzlos. Aber egal. Es existiert(e), irgendeinen Grund wird es gegeben haben, heute nimmt man einfach Displayport. RD wink
(12.02.2016)rtry schrieb: [ -> ]Herzlichen Glückwunsch, du hast den Speichercontroller der CPU geschrottet.

Screw you Cheerilee awesome
[Bild: 2016-02-16%2022.24.21.jpg]

Hat mit sauber machen geholfen, so wie Pandora51 gesagt hat Tongue
Freut mich. Wie hast du es letztendlich gelöst? Nochmal versucht die Kontakte zu säubern?
Ja, hab die Kontakte alle mit Wattestäbchen gesäubert und was nicht abging mit Zahnstocher abgekratzt.
Da, wo ich den Zahnstocher brauchte, war eh nur ein VSS Kontakt aber egal, sicher is sicher.
(12.02.2016)Conqi schrieb: [ -> ]Natürlich haben Grafikkarten DVI-I Anschlüsse, damit man da einen VGA-Adapter dran anschließen kann. Meine Frage war aber, wozu man DVI-I Buchsen an Monitoren und DVI-I Kabel braucht. Mir fällt spontan kein Grund ein.

An Monitoren braucht man die für den Fall daß jemand was Analoges anschließen will. Viele haben ja nur 2xDVI-I oder DVI-I und HDMI. Oder der Monitor hat zwar DVI-I und 15pol, aber man will zwei Rechner per VGA anschließen.
Das Kabel macht aber wirklich keinen Sinn, weil es aufgrund der Buchsensituation ja gerade nicht universell einsetzbar ist, obwohl es auf den ersten Blick so aussieht.

(11.02.2016)404compliant schrieb: [ -> ]Der eBay-Artikel strotzt schon mal nur so vor Inkompetenz. Ein "DVI-D 24+1" Anschluss zeichnet sich aufgrund des D und des +1 eben gerade durch das fehlen der Analogleitungen aus, und genau die sollen auf der anderen Seite des Adapters heraus kommen. Kann nicht sein, muss ein 24+5 Adapter sein.

Ich kann mir einen sinnvollen Einsatz dieses Adapters auch nur vorstellen, falls es Monitore gibt, die irgendwie digital über den 15poligen Anschluß können. Oder, falls er für die andere Seite gedacht ist, analog über den DVI-D. Das ist aber beides sowas von nichtstandard, daß die Annahme immer wahrscheinlicher wird, daß da einfach nur jemand Geld von Leuten abziehen will, die partout nicht glauben wollen, daß das so nicht geht.
Mich würde ja mal interessieren, wie das Ding innendrin verdrahtet ist. Vielleicht fällt das ja auch in die Kategorie "Schuko auf Gardena" oder "XLR auf Klinke"
Ich habe DVI-I schlicht noch nie an einem Monitor gesehen. Mein Zweitmonitor hat DVI-D und VGA und mein Hauptmonitor, DVI-D, HDMI und Displayport- Ein Monitor, der analoge Signale über DVI entgegen nimmt, ist mir bisher nicht untergekommen. Aber interessant zu wissen, dass es die gibt.
Kleines Update von meinen TV (Phillips 32" TV von 2009, FHD)(hatte sich nach 4-6h immer ausgeschaltet, obwohl nix derartiges eingestellt war)

Mittlerweile hat er nur noch 3-5h drauf, bevor er sich abschaltet. Er läuft danach aber wieder normal. Aber bei der PS3 im PS1 (578i) betrieb fällt auf einmal Schnee!(also es Kriselt extremst)Aber wenn ich wieder ins 1080p PS3 Menü gehe, und dann nochmal auf 576i/PS1 switche, macht er alles normal. ob es nun die Ps3 ist oder der TV, der Sich ,,in der auflösung/umstellung verschluckt", weiß ich nicht. Aber obwohl... Doch, dann muss das die PS3 sein, denn mein Receiver ist ja auch nur per Scart angeschlossen, und das Stört nie so.

Was da wohl los ist. ... Ihr habt auch keine Ahnung, oder? Ich meine, auf Zeit werde ich mir eh (wie gesagt) ein 50Zoll +-3zoll TV holen, aber wenn möglich will ich den TV noch als PC Bildschirm nutzen :/
Klingt für mich definitiv nach einem Defekt im Gerät, ich vermute das er irgendwo ne SIcherung hat die nach der Zeit "Feierabend" ruft wenn Ich mir das so durchlese.
(17.02.2016)mowny schrieb: [ -> ]Ich kann mir einen sinnvollen Einsatz dieses Adapters auch nur vorstellen, falls es Monitore gibt, die irgendwie digital über den 15poligen Anschluß können.

Nein, das gibt es nun wirklich nicht, der analoge VGA kann wirklich nur analog, und die Adapter leiten im Wesentlichen nur die +4 Leitungen auf die Analog-Pins durch. Nein, der einzig sinnvolle Adapter ist 24+4 auf VGA.


(17.02.2016)Conqi schrieb: [ -> ]Ich habe DVI-I schlicht noch nie an einem Monitor gesehen.

Wie gesagt, dieses Schätzchen steht sogar noch in meinem Archiv. Ist eine 21" IBM Flat-Röhre, sauschwer und groß, war aber mal High-End. Hatte ihn sogar mal auf 1920x1440@70Hz. Und hat einen rein analogen DVI-A EIngang, weil das damals der ganz moderne, neue Anschluss war. Der aber auch keinen Vorteil gegenüber VGA hatte, und entsprechend selten war.

Theoretisch könnte man ihn heute einsetzen, um den separaten VGA-Stecker zu sparen, so wie der VGA an Grafikkarten auch gespart wird. Macht aber auch kein Monitorhersteller.
(17.02.2016)Conqi schrieb: [ -> ]Ein Monitor, der analoge Signale über DVI entgegen nimmt, ist mir bisher nicht untergekommen. Aber interessant zu wissen, dass es die gibt.
Diese Variante ist nicht unbedingt sehr häufig, aber mit einem DVI-I-Anschluss lässt sich die VGA-Buchse komplett einsparen, wobei der Monitor weiterhin auch analoge Signale akzeptieren kann. Die Wacom Cintiq 22" und 24"-Displays machen das beispielsweise so, um VGA ohne extra Buchse zu unterstützen.
Bei Grafikkarten habe ich es schon öfters gesehen, dass diese VGA unterstützen, aber nur DVI-Anschlüsse haben (und ggf HDMI).
Hat jemand einen Tipp für mich wie ich ein Problem mit dem Ladekabel meines Galaxy S3s wieder wegbekomme? Es lädt ziemlich... wackelig. Ein paar Minuten verhält es sich normal aber fängt dann an immer langsamer zu werden bis das Handy (falls es eingeschaltet ist) anfängt wieder leerzulaufen. Nach dem entfernen und wieder anschließen funktioniert es meistens wieder kurzzeitig.
Kannst du mit der Elektronik im ladegerät umgehen? Wenn nicht empfehle ich ein neues zu kaufen.
Hi.
Kann mir jemand sagen, wie ich erkenne, ob eine MP3 wirklich 320kbits hat und nicht von 192kbits auf 320kbits hoch konvertiert wurde?
Ich finde das eh interessant. Selbst wenn ich bewusst eine 192kbits MP3 nehme, welche knapp 4MB hat und dann in 320kbits konvertiere, ist sie knapp 9MB groß. Wieso? Es gibt ja keine Daten, die tatsächlich die Qualität von 320kbits bieten könnten.
(19.02.2016)Aica schrieb: [ -> ]Hi.
Kann mir jemand sagen, wie ich erkenne, ob eine MP3 wirklich 320kbits hat und nicht von 192kbits auf 320kbits hoch konvertiert wurde?
Ich finde das eh interessant. Selbst wenn ich bewusst eine 192kbits MP3 nehme, welche knapp 4MB hat und dann in 320kbits konvertiere, ist sie knapp 9MB groß. Wieso? Es gibt ja keine Daten, die tatsächlich die Qualität von 320kbits bieten könnten.

Indem du die 320kbit/s MP3 nimmst und bei signalanalytisch auswertest. MP3 nutzt den Verdeckungseffekt, bei dem naheliegende Peaks ähnlicher Frequenz von einem höheren Peak einfach überdeckt und so weggelassen werden können. Das macht es mit Hilfe von nicht-linearer Quantisierung.

Sieht in etwa so aus:

Spoiler (Öffnen)

Wenn man nicht beide Versionen hat, ist es quasi unmöglich das zu erkennen. Zumindest ist mir keine Software bekannt, die das könnte.

Aber hey, solange du keine Komprimierungsartefakte hörst, ist doch alles okay. Smile
Hmm. Vom hören her erkenne ich es ja. Ich wollte ur nicht in jedes Lied rein hören um zu schauen, ob es nun richtig ist oder nicht Big Grin
192 kbits klingt viel dumpfer; bzw 320 kbits klarer und nach mehr Sound. Ich finde, dass man das enorm hört.
Und bei 256 vbr und mehr spüre ich z.B. auch den Bass im Körper/Brustkorb. Bei weniger Kbits höre ich den Bass einfach nur.

N Freund von mir meinte auch, dass er das nicht hört (ist jünger als ich) und kauft sich deshalb die hardstyle-Tracks immer in 192, weil günstiger. Kann ich nciht nachvollziehen Big Grin
Zwischen 256 kbits VBR und 320 erkenne ich aber keinen Unterscheid. Finde ich auch nachvollziehbar.

Es wäre aber auch erschreckend, wenn man das mit der Technik, die ich habe, nciht hören würde, ob nun 192 oder 320 xD

Danke für den Graphen, so etwas sah ich schon mal. Nur habe ich trotzdem nicht so ganz verstanden, warum eine MP3 dann auch doppelt so viel Speicherplatz verbraucht, nur wenn sie einfach hoch konvertiert wurde. Also wenn es vielleicht von 4 auf 5 mb gehen würde, könnte ich es mir vorstellen. Aber auf knapp 9? Nunja. Aber gut
»Bei Signalanalytisch« Meinst du damit eine Internetseite? Google findet da ncihts..
Wenn ich das »bei« weg nehme, macht das Sinn, denn dann würde ich das analytische Signal selbst auswerten, wenn ich die Graphen vor mir habe. Aber dann wäre es einfacher, da einfach rein zu hören.. xD
Was hast du denn für ne Anlage? Die Unterschiede sind meist so klein das man die erst mit einer hochwertigen bemerkt und das nur im direkt vergleich...

Sofern die Musik nicht tot komprimiert oder dem Loudness war verfallen ist.
Hardstyle ist auch nicht gerade Audiophil.