Bronies.de

Normale Version: Apple (iMac/iPhone/iPad/...) - Eure Meinung?
Du siehst gerade eine vereinfachte Darstellung unserer Inhalte. Normale Ansicht mit richtiger Formatierung.
Seiten: 1 2 3 4 5 6 7 8 9 10 11 12
(08.11.2016)LightningGear schrieb: [ -> ]Wie mit all den anderen toten Ports, die ich aufgezählt habe, gibt es nichts, das den USB-A-Stecker in irgendeiner Weise "besonders" oder "unersetzlich" macht.

Natürlich ist er nicht unersetzlich, aber aktuell eben Standard. Auch USB Typ C wird es irgendwann nicht mehr geben, also wieso nicht gleich gar keine Ports verbauen? Wahrscheinlich, weil sie dann drahtloses Laden implementieren müssten Tongue Für den Kunden hat es keinen einzigen Vorteil, dass es kein USB Typ A mehr gibt bei dem Modell, außer er ist aus irgendeinem Grund darauf angewiesen vier Mal Thunderbolt 3 zu haben, aber das kriegt man ja nicht mal.

(08.11.2016)Nic0 schrieb: [ -> ]Natürlich ist es nicht schön, aber ich wüsste jetzt auch nicht, wofür ich mehr als 3x 40 GBit/s brauchen würde. Twilight: not bad

Mir würde auch kein Einsatzzweck einfallen, der über einmal Thunderbolt 3 hinaus geht. Einmal für ne "Dockingstation" wäre sinnvoll, da gibt es ja sogar Modelle mit externer Grafikkarte, damit man damit halbwegs zocken kann. Allerdings würde ich erwarten, dass alle Ports die gleiche Leistung liefern, wenn sie schon der Meinung sind vier Mal Thunderbolt 3 zu verbauen. Ich fänd es ja auch nicht ok, wenn 2 der 4 Displayport 1.2-Anschlüsse an meiner Grafikkarte nur FullHD können, weil "niemand mehr als zwei Mal 4k braucht". Dann sollen sie doch einfach zwei Ports als Thunderbolt 2 spezifizieren, dann weiß man immerhin was einen erwartet.

(08.11.2016)Nic0 schrieb: [ -> ]Übrigens: Bei der Einführung von Displayport gab es doch genau das gleiche Theater. Nun musste man immer einen HDMI Adapter dran machen um die Grafikkarte an den Monitor oder TV zu hängen.
Ich habe bis heute noch kein Endgerät, was DP kann und muss einen Adapter verwenden, egal ob PC oder Laptop. Stören tut mich das eigentlich nicht, denn beim PC ist er sowieso fest dran und beim laptop ist er immer in der Tasche mit dabei.

Und aus dem Grund gab es auch keine Grafikkarten und kaum Notebooks, die direkt nur noch Displayport angeboten haben. Auch heute noch kriegt man keine Grafikkarte, die nur Displayport hat, außer man sucht speziell eine. Selbst DVI ist ja noch vorhanden meistens.
(08.11.2016)Nic0 schrieb: [ -> ]
(08.11.2016)mowny schrieb: [ -> ]Bei itsco.de gibt es beides ... auf furbase kam letztens ein ähnliches Thema auf, da hab ich empfohlen, mal in die 4-Way-Server-Rubrik zu schauen. Die x3850 M2 haben wohl am meisten Wumms pro Geld.
Ja, genau sowas meinte ich. Oder sowas wie die HP Z800, wenn man eine reine Wokstation will.

Wokstation? Lenovo D30?  RD laugh
Die und die Z820 hat itsco auch, aber die kosten gleich wieder so viel, daß man sich dafür fast zwei von den Servern mit viermal soviel CPUs hinstellen kann. (Gab's hier letztens nicht 'nen Thread "Rechner als Heizung"?  RD deals with it )

(08.11.2016)mowny schrieb: [ -> ]Aber ich habe zum beispiel eine Fermi GPU und habe auch mal alle möglichen Renderer (Maxwell, V-Ray, Indigo) durchgetestet. Bei keinem kam das Bild vom GPU unterstützten Rendern an das vom reinenen Rendering über die CPU heran. Ich kann mir nur Vorstellen, dass irgendwelche Beleuchtungsalgorithmen beim Path Tracing oder Photon Mapping (noch) nicht von CUDA unterstützt und deshalb einfachere verwendet werden.

CUDA stellt doch eigentlich nur Rechenfunktionen zur Verfügung. Eigentlich dürfte da nix anderes bei rauskommen, wenn man statt mit SSE mit CUDA rechnet, die höheren Renderalgorithmen muß man sich für SSE ja eh selber bauen. Sicher, daß die wirklich CUDA genauso wie SSE zur Berechnung einsetzen und nicht einfach faulerweise die High-Level-Renderfunktionen - also die, die eigentlich für die Live-Darstellung beim Spielen gedacht und entsprechend "optimiert" sind - nutzen? In dem Fall könnte die Qualität mit Quadro-Karten tatsächlich höher sein, weil deren Treiber ja auf Genauigkeit statt Spiel-Framerate optimiert sind.

Zitat:Wir befinden uns momentan in einer Übergangsphase. USB C wurde entwickelt um als Schnittstelle für alles zu dienen. Auch die USB Sticks werden in Zukunft vermutlich nur noch USB C nutzen. Es gibt ja schon einige Modelle, sogar mit Kombo-Anschluss. Auch bei Festplatten ist das so. In dieser Übergangsphase ist man nun mal gezwungen, auf Adapter zurück zu greifen. Sonst gibt es ja gar keinen Fortschritt. Je schneller es geht, desto besser.
[...]
Ein Präsenter geht über Bluetooth. Und HDMI, Stromversorgung und USB hat man alles am Standard Multiport Adapter.

Mindestens zwei unabhängige Ports dürften es aber schon sein. Wenn man Grafik, GBit LAN und Festplatte oder Speicherstick am selben Port hängen hat, müssen die sich um die Bandbreite kloppen, außerdem haut Dir ein Hub prinzipbedingt immer noch Latenz dazu rein, und obendrein hat USB immer noch das Problem der gegenüber zB Firewire ineffizienten Bandbreitenausnutzung. Es ist schon irgendwie peinlich, wenn das Ganze dann langsamer am Datenschaufeln ist als ein altes Core2-Macbook mit Firewire 800 und GBit LAN.
(09.11.2016)mowny schrieb: [ -> ]Mindestens zwei unabhängige Ports dürften es aber schon sein. Wenn man Grafik, GBit LAN und Festplatte oder Speicherstick am selben Port hängen hat, müssen die sich um die Bandbreite kloppen, außerdem haut Dir ein Hub prinzipbedingt immer noch Latenz dazu rein, und obendrein hat USB immer noch das Problem der gegenüber zB Firewire ineffizienten Bandbreitenausnutzung. Es ist schon irgendwie peinlich, wenn das Ganze dann langsamer am Datenschaufeln ist als ein altes Core2-Macbook mit Firewire 800 und GBit LAN.
Zumindest die Grafik umgeht USB, da das Videosignal warscheinlich per alternate Mode über die zusätzlichen Kontakte des USB-C-Steckers per DisplayPort oder Thunderbolt übertragen werden, was dann im Adapter zu HDMI oder VGA gewandelt wird. Theoretisch gibt es auch einen alternate Mode via HDMI oder eine Übertragung über die normalen USB-Daten, was Apple aber nicht nutzt bzw. unterstützt.
Das wird bei Video über USB-C noch eine lustige, chaotische Sache, da es aktuell 4-5 Möglichkeiten gibt, wie ein Videoignal über eine USB-C-Verbindung zum Adapter übertragen werden kann, wobei nicht jede von jedem Gerät unterstützt wird.

Enttäuschend ist, dass Apple beim Multiport-Adapter keinen zweiten USB-Ausgang (egal ob A oder C) eingebaut hat. So braucht man, wenn man ein zweites USB-A-Gerät anschließen will, auch noch einen Hub. Wenn man Hardware mt USB-C-Stecker hat, ist es noch blöder: Diese kann man dann beim MacBook ohne zweiten USB-C-Anschluss gar nicht mehr anschließen, sofern man nicht gleich eine Alternative zum Multiport-Adapter verwendet.
Außerdem unterstützt er nur 1080p60 oder 2160p30.

Auch wenn USB Typ C in der Theorie sehr universell ist, gibt es bei Apple jetzt schon diverse Kompatibilitätsprobleme, u.a., weil nicht jedes USB-C-Gerät die gleichen Spezifikationen hat. So hat das MacBook Pro USB-C mit Thunderbolt 3 via alternate Mode, wobei Thunderbolt 3 wiederum u.a. USB 3.1 Gen, 2, Thunderbolt (40 Gbit/s) und DisplayPort 1.2 enthält. Das MacBook (ohne Pro) hat dagegen nur USB 3.1 Gen1 mit DisplayPort 1.2. via alternate Mode.
Ich nutze als Produktionsumgebung gern MacOS und vor allem Logic Pro. Daher bin ich wohl oder übel auf Apple-Hardware angewiesen. Aktuell habe ich immer noch ein MBP Mitte 2011 (i7 2,4 GHz, 8 GB RAM) am Start, das nach wie vor zuverlässig funktioniert und kaum an seine Leistungsgrenzen stößt. Und ich hoffe, dass es das auch noch eine Weile tut. Aktuell würde ich mir kein aktuelles Apple-Gerät kaufen wollen, am wenigsten das neue MBP.

Gründe:
1. Meine ganzen Audio- und MIDI-Interfaces laufen über USB bzw. Firewire. Für alle müsste ich Adapter kaufen und hoffen, dass das ganze danach genauso stabil und nahezu latenzfrei läuft wie vorher. Denn professionelle Interfaces mit USB-C gibt es, wenn überhaupt, nur in sehr überschaubarer Anzahl, und noch läuft die Technik sehr zuverlässig, also warum rausschmeißen?
2. Mag sein, dass das nostalgisch ist, aber ich brauche ein optisches Laufwerk, um hin und wieder mal was von CDs oder DVDs zu lesen. Ja, ich hab auch ein externes Laufwerk, aber das müsste ich dann irgendwo auf meinem Schreibtisch verstauen...
3. Sollte ich aus welchen Gründen auch immer, auf größere Samplelibraries umsteigen, müsste ich meinen RAM vergrößern. Momentan hab ich da noch Luft nach oben. Wenn er verlötet ist, naja, ihr wisst ja.
4. Ich würde aktuell nicht wirklich von den 25% mehr Rechenleistung profitieren, da in meiner Produktionsumgebung eh das meiste via externe Hardware geregelt wird, so dass ich im schlimmsten Fall meine CPU zu 50% nutze.
EDIT: 5. Diese Tastatur. Alter... Ich will Tasten! Keine berühungsempfindlichen Quadrate.

Wenn mein Lappy wirklich mal die Grätsche macht oder ich mehr Leistung brauche, werde ich mir einen Hackintosh-Rechner zusammenstellen. Darf dann auch gern ein Tower sein, da diese eh leiser sind und notfalls in eine finstre Ecke gestellt werden können, um außerhalb des Hörfeldes zu sein.
Um mal wieder auf die Diskussion bezüglich den aktuellen MacBooks zurückzukommen:


(04.12.2016)LightningGear schrieb: [ -> ]Um mal wieder auf die Diskussion bezüglich den aktuellen MacBooks zurückzukommen:...

Gutes Video.

Und hier ist, wie man die Touchbar "repariert":





RD laugh

Was für eine tolle Verbesserung im Gegensatz zu den konventionellen, physischen Tasten. Pinkie happy
(23.12.2016)HeavyMetalNeverDies! schrieb: [ -> ]Was für eine tolle Verbesserung im Gegensatz zu den konventionellen, physischen Tasten. Pinkie happy

Bis man sie tatsächlich mal ausprobiert hat.




Spoiler: Kein Hate-Review.
Sorry, aber der Typ ist ein Volltrottel. Nicht weil er das Teil gut findet, sondern weil er schon meint das MacBook Pro war niemals ein Produkt für Professionals. Schon alleine der Bildschirm ist weit besser als bei anderen Laptops.
Ich hatte vor dem MacBook Pro ein Windows-Laptop gekauft, der ging gleich am nächsten Tag zurück weil Bildschirm sch...

Also, der Bildschirm und auch die Lautsprecher (wenn sie so sind wie beim iPad Pro) werden super sein. Die Touchbar (sofern sie funktioniert) wird sicher Spaß machen, obgleich ich mir weniger davon erhoffe, dass sie mein Leben viel einfacher und produktiver machen würde.

Das Logitech G13 hat mein Leben einfacher und produktiver gemacht. Mit der rechten Hand am Grafiktablett zeichnen, mit der linken am G13 Werkzeuge wechseln, Cmd+Z drücken etc... Nur, das Teil kann man ja nicht mal anstecken. Das Grafiktablett btw. auch nicht.

Beim Touchpad habe ich bedenken, dass es vielleicht zu groß geraten ist, zumindest hatte ich nie das Gefühl, dass bei meinem 2010er das Touchpad zu klein wäre. Da würde ein großes Touchpad maximal einen Gewinn bringen, wenn ich irgend eine Zeitleiste möglichst genau bedienen möchte.

Ich werde die Vorzüge aber wohl nie herausfinden, weil mich als produktiven, kreativen Nutzer die Nachteile von dem Teil zu sehr abschrecken.

Btw. sollte man nicht versuchen das MacBook Pro mit 4 Stromkabeln zugleich zu laden.



dass mehrere Netzteile das MBP quasi unbrauchbar machen ist für mich quasi ein echter Konstruktionsfehler. Es gibt schließlich Notebooks, die mehrere Netzteile gleichzeitig nutzen können /müssen.

Das letzte gute Macbook Pro ist imo das Unibody der ersten Generation mit wechselbaren Akku.
Danach gings abwärts
(24.12.2016)HeavyMetalNeverDies! schrieb: [ -> ]Sorry, aber der Typ ist ein Volltrottel. Nicht weil er das Teil gut findet, sondern weil er schon meint das MacBook Pro war niemals ein Produkt für Professionals. Schon alleine der Bildschirm ist weit besser als bei anderen Laptops.

Sorry, aber die Aussage ist arg verallgemeinert. Was genau definiert einen Laptop für "Professionals"? Was ist ein "Professional"? Jemand, der mit der Arbeit an seinem Computer Geld verdient? Der ist gut bedient, Final Cut Pro X und Logic Pro X bekamen beide zusammen mit dem neuen MBP ein ausführliches Update. Beide Tools werden, im Gegensatz zum Apple-Doom-Gloom-Narrativ, welches im Internet propagiert wird, noch aktiv maintained und sind weit davon entfernt, Abandonware zu werden.

Ist es die Power? Da finden "Professionals" bei der Konkurrenz auch nicht zwangsläufig bessere Geräte. Ganz besonders nicht im Bereich der Ultrabooks.

Das ständig als "MacBook Pro-Killer" gehypte Surface Book hat selbst in seiner Maximalkonfiguration nur einen Dual-Core-Prozessor, einen 15W-i7-6600U, welcher sich grade im Bereich des Last-Gen 28W-i5-5257U, welcher in meinem Mac steckt, bewegt und sogar teils darunter landet (aus dem Durchschnitt der ersten 6 Ergebnisse auf Geekbench 4 zum Zeitpunkt dieses Posts erreichte das Surface Book 3360 Single-Core- und 6248 Multi-Core-Punkte. Mein MacBook Pro erreicht dort durchschnittlich 3481 Single-Core- und 6555 Multi-Core-Punkte.).
Das ist im Kontext der reinen Performance nicht "Pro".

Ebensowenig ist das als "iMac-Killer" gehypte Surface Studio tatsächlich Pro, da jener im Gegensatz zum iMac ausschließlich Laptop-Prozessoren verbaut (einen i7-6820HQ in seiner Maximalkonfiguration). Der iMac hat in seiner Maximalkonfiguration einen Desktop-i7-6770k. Da ist der Studio auch nicht "pro" (nach Performance).

Ach ja, das Surface Studio ist in dieser Konfi sogar teurer als der maximale iMac. Oh, und jeder Studio enthält als Datengrab eine 5400RPM-Festplatte. Auch seine Maximalkonfi. Den iMac kann man mit einer 1TB-NVMe-SSD aufpimpen.

Mit den Surface Pro-Modellen brauch ich gar nicht erst anzufangen.

Auch das Zeichentablet, welches in allen Surface-Geräten steckt, wird "Creative Professionals" eher wenig hinter dem Ofen hervorlocken, besonders da ebenjene bereits ein sehr gutes Wacom-Tablet besitzen werden.

Business-Notebooks? Das HP EliteBook 850 G3 hat ebenfalls maximal nen 15W-Prozessor und einen extrem miesen Screen. Nicht "pro". Und das einzige, was an ThinkPads "Pro" ist, ist ihre Bauweise und die Menge an verfügbaren Anschlüssen. Alles andere ist Standard-Ultrabook.

Bevor man nicht definiert, was ein "Pro" überhaupt ist, sind Aussagen wie "das neuste MacBook Pro ist nicht Pro!!" absolut wertlos.

(24.12.2016)HeavyMetalNeverDies! schrieb: [ -> ]Das Logitech G13 hat mein Leben einfacher und produktiver gemacht. Mit der rechten Hand am Grafiktablett zeichnen, mit der linken am G13 Werkzeuge wechseln, Cmd+Z drücken etc... Nur, das Teil kann man ja nicht mal anstecken. Das Grafiktablett btw. auch nicht.

Das #donglelife-Argument wird jedesmal gemacht, wenn Apple Anschlüsse entfernt. Das Argument wurde gemacht, als Apple Diskettenlaufwerk und ADB aus seinen Macs entfernte. Es wurde gemacht, als sie von PowerPC zu Intel wechselten. Es wurde gemacht, als sie 30-Pin-Anschluss mit Lightning austauschten.

Und heute? Heute schreit niemand mehr nach diesen alten Anschlüssen. Es braucht eine Firma mit extremer Marktmacht wie Apple, um den Fortschritt voranzutreiben.

If Apple was a Democracy (Öffnen)

Das wird sogar im Video selbst gesagt.

(24.12.2016)HeavyMetalNeverDies! schrieb: [ -> ]Beim Touchpad habe ich bedenken, dass es vielleicht zu groß geraten ist, zumindest hatte ich nie das Gefühl, dass bei meinem 2010er das Touchpad zu klein wäre. Da würde ein großes Touchpad maximal einen Gewinn bringen, wenn ich irgend eine Zeitleiste möglichst genau bedienen möchte.

Dass das Touchpad so riesig ist, zeigt nur wie unglaublich gut sich OS X mit Trackpads bedienen lässt, so gut, dass es sogar als Standard-Eingabegerät bei iMacs angeboten wird in Form des Magic Trackpad. Und wenn es entsprechend gute Palm Rejection aufweist, wird es auch niemandem zum Problem werden.

Apple machte große Touchpads mit dem MacBook vor, der Rest der Industrie folgte. Oder würde heutzutage irgendwer freiwillig noch solche Touchpads benutzen wollen?
Dell Inspiron E1505 (Öffnen)

(24.12.2016)HeavyMetalNeverDies! schrieb: [ -> ]Ich werde die Vorzüge aber wohl nie herausfinden, weil mich als produktiven, kreativen Nutzer die Nachteile von dem Teil zu sehr abschrecken.

Dann heißt das aber ausschließlich, dass das Gerät FÜR DICH nichts ist, nicht dass andere User oder "Professionals" nichts damit anfangen könnten.

(24.12.2016)HeavyMetalNeverDies! schrieb: [ -> ]Btw. sollte man nicht versuchen das MacBook Pro mit 4 Stromkabeln zugleich zu laden.
Spoiler (Öffnen)

Wow, ein Experiment des größten Apple-Idioten auf YouTube, auf das ausschließlich Super-DAUs kämen würden, wird als Kontraargument gegen Apple verwendet. Facehoof

(24.12.2016)rtry schrieb: [ -> ]dass mehrere Netzteile das MBP quasi unbrauchbar machen ist für mich quasi ein echter Konstruktionsfehler. Es gibt schließlich Notebooks, die mehrere Netzteile gleichzeitig nutzen können /müssen.

Ähm, welche? Mir sind keine bekannt, und ich habe schon unzählige verschiedene Notebooks gesehen.
(24.12.2016)LightningGear schrieb: [ -> ]
(24.12.2016)rtry schrieb: [ -> ]dass mehrere Netzteile das MBP quasi unbrauchbar machen ist für mich quasi ein echter Konstruktionsfehler. Es gibt schließlich Notebooks, die mehrere Netzteile gleichzeitig nutzen können /müssen.

Ähm, welche? Mir sind keine bekannt, und ich habe schon unzählige verschiedene Notebooks gesehen.

die sog. Desktop-Ersatz Dinger mit voll heftiger CPU und so.
Gut, das die Dinger unnötig sind ist klar.
Aber dennoch hätte Apple meiner Meinung nach diesen Punkt beachten müssen, gerade weil es theoretisch geht.
Wie nun andere Hersteller die eine USB-C Aufladung diesen Punkt berücksichtigt haben weiß ich allerdings auch nicht.
Dennoch verstehe ich die Abkehr vom Magsafe eh nicht. Das ist der imo am besten designte Anschluss überhaupt gewesen. Meine Macbooks hat der *oft* gerettet.
(24.12.2016)rtry schrieb: [ -> ]die sog. Desktop-Ersatz Dinger mit voll heftiger CPU und so.
Gut, das die Dinger unnötig sind ist klar.

Die befinden sich nichtmal im selben Markt.

(24.12.2016)rtry schrieb: [ -> ]Dennoch verstehe ich die Abkehr vom Magsafe eh nicht. Das ist der imo am besten designte Anschluss überhaupt gewesen. Meine Macbooks hat der *oft* gerettet.

Da wiederum werde ich nicht widersprechen, der Verlust von MagSafe ist ziemlich schade. :/
Naja für MagSafe gibt's ja einen Adapter Wink
https://www.heise.de/mac-and-i/meldung/Snapnator-will-MagSafe-fuer-USB-C-sein-3455644.html

gibt noch ein paar mehr, bin auch schon überlegen einen zu holen ich fand MagSafe immer cool Smile
Nun USB-C mag in Zukunft schon der Standard sein, naja außer für die SD-Karte und Mac's sind ja im Foto/Filmbereich sehr beliebt.

Naja und dieses ganze "Mac-Book Killer" Zeug.
SurfaceBook wenn dann nur im Bereich der 13-Zoll Variante, hier nutzen alle ja nur Dual-Cores, wie ich auch mit meinem XPS-13
im 15 Zoll Bereich wäre da zum Beispiel das XPS-15, das man mit dem MacBook vergleich kann.
Gerade die 4k Variante soll dem Display des MacBooks außer in der maximalen Helligkeit in nichts nachstehen (glänzend sind ja beide ...)

Aber was man letzenendlich braucht hängt von mehreren Faktoren ab. Smile

Das einzige worüber ich schmunzeln musste, wenn man sich jetzt ein neues MBP und ein iPhone7 kauft kann man weder das iPhone per Kabel anschließen noch die beigelegten Earpots nutzen, MBP hat ja wieder Klinke Wink
Da hat einer im Ökosystem nicht aufgepasst ^^
(24.12.2016)LightningGear schrieb: [ -> ]
If Apple was a Democracy (Öffnen)

So ein Teil wäre awesome. Das hat sogar einen Gitarrenanschluss. Cheerilee awesome

However. Um in der Relaität einen möglich großen Kundenkreis bzw. deren bedürfnisse abzudecken, kann man Laptops theoretisch auch modular aufbauen, wie etwas das Thinkpad P70, was noch allerlei slots und Möglichkeiten für erweiterung hat. Ich sehe es auch nicht zu viel verlangt, neben Thunderbolt 3 noch normale USB-Anschlüsse ranzubauen. Das Argument dass die zu viel Platz wegnehmen ist Mist. Es gibt immerhin noch andere dünne Notebooks mit normalen USB-Anschluss.

Zitat:Dann heißt das aber ausschließlich, dass das Gerät FÜR DICH nichts ist, nicht dass andere User oder "Professionals" nichts damit anfangen könnten.

Klar, wenn wer nihct auf Windown umsteigen möchte, dann muss er sich eh zwangsweise damit abfinden.

Zitat:Wow, ein Experiment des größten Apple-Idioten auf YouTube, auf das ausschließlich Super-DAUs kämen würden, wird als Kontraargument gegen Apple verwendet. Facehoof

Das war kein Konterargument, sondern nur eine feststellung. Wäre schön wenn Apple den Fall irgendwie berücksichtigt hätte oder vielleicht sogar, wenn man den Akku so schneller hätte laden können. In der Realität wird wohl kaum wer so blöd sein, mehrere Netzteile anzuschließen.

Aber schön, wie du dich über alles aufregen kannst. Twilight happy

(24.12.2016)rtry schrieb: [ -> ]Dennoch verstehe ich die Abkehr vom Magsafe eh nicht. Das ist der imo am besten designte Anschluss überhaupt gewesen. Meine Macbooks hat der *oft* gerettet.

Die Abkehr vom MagSafe war eine gute Idee. Zum einen kann man so zB. eine Powerbank anschließen, zum anderen wird man so wohl auch andere Netzteile (nicht von Apple) verwenden können. Die Applenetzteile sind meiner Erfahrung nach nämlich qualitativ minderwertig. Geplante Obsoleszenz lässt grüßen.

Auf der anderen Seite wird es jetzt natürlich interessant, was ist, wenn am MacBook direkt was hin wird, weil bei dem Teil kann man ja dann gar nichts mehr machen, außer es auszutauschen.
(24.12.2016)LightningGear schrieb: [ -> ]Das #donglelife-Argument wird jedesmal gemacht, wenn Apple Anschlüsse entfernt. Das Argument wurde gemacht, als Apple Diskettenlaufwerk und ADB aus seinen Macs entfernte. Es wurde gemacht, als sie von PowerPC zu Intel wechselten. Es wurde gemacht, als sie 30-Pin-Anschluss mit Lightning austauschten.

Und heute? Heute schreit niemand mehr nach diesen alten Anschlüssen. Es braucht eine Firma mit extremer Marktmacht wie Apple, um den Fortschritt voranzutreiben.
Du hast übrigens die weggelassene Klinkenbuchse vergessen, was den Klinkenstecker bei Kopfhörern mit Kabel trotzdem nicht verdrängen wird, da die Alternative über Lightning ausschließlich an iPhones funktioniert und selbst an einem MacBook nicht nutzbar ist.

Die damaligen Änderungen wurden dann doch akzeptiert, da es letztlich nur einen einzelnen Anschluss betraf und viele Leute gerade mal 1 oder 2 Zubehörartikel daran verwendeten.
USB wird dagegen mittlerweile von fast jedem externen Gerät verwendet wobei aktuell fast keines USB-C verwendet. Dadurch, dass USB-A-Geräte mit Adapter auch an USB-C funktionieren, umgekehrt aber nicht, wird USB-A vermutlich noch recht lange Standard bleiben, vor allem bei Geräten, die keine USB 3.1-Geschwindigkeiten benötigen.
(24.12.2016)Yaktan schrieb: [ -> ]Nun USB-C mag in Zukunft schon der Standard sein, naja außer für die SD-Karte und Mac's sind ja im Foto/Filmbereich sehr beliebt.

Aber eigentlich auch eher deswegen, weil die Hersteller der Geräte entweder an integriertem Flash-Speicher geizen oder minderwertige USB-Ausgänge mit 2.0-Geschwindigkeiten haben.

Das Hauptproblem, das SD-Karten nämlich haben, ist dass sie über ein Interface angesprochen werden, welches niedrigere Lese- und Schreibraten hat, als 5400RPM-Festplatten. Die Dinger sind absoluter Müll. Es ist nur absoluter Müll, der sich durchgesetzt hat. Mehr spricht IMO nicht für die weitere Nutzung von SD-Karten.

(24.12.2016)Yaktan schrieb: [ -> ]Das einzige worüber ich schmunzeln musste, wenn man sich jetzt ein neues MBP und ein iPhone7 kauft kann man weder das iPhone per Kabel anschließen noch die beigelegten Earpots nutzen, MBP hat ja wieder Klinke Wink
Da hat einer im Ökosystem nicht aufgepasst ^^

Doch, weil Apple vorsieht, dass man das iPhone per Wifi-Sync mit dem Mac verbindet. Und früher oder später werden neue iPhones mit einem USB-C-zu-Lightning-Kabel geliefert werden (oh mann, da wird's dann den nächsten Shitstorm geben... Twilight: No, Really? ). Ein solches Kabel kriegt man direkt von Apple bereits für denselben Preis, den ein USB-A-zu-Lightning-Kabel kostet.

(24.12.2016)Leon schrieb: [ -> ]Die damaligen Änderungen wurden dann doch akzeptiert, da es letztlich nur einen einzelnen Anschluss betraf und viele Leute gerade mal 1 oder 2 Zubehörartikel daran verwendeten.
USB wird dagegen mittlerweile von fast jedem externen Gerät verwendet wobei aktuell fast keines USB-C verwendet. Dadurch, dass USB-A-Geräte mit Adapter auch an USB-C funktionieren, umgekehrt aber nicht, wird USB-A vermutlich noch recht lange Standard bleiben, vor allem bei Geräten, die keine USB 3.1-Geschwindigkeiten benötigen.

Das waren definitiv nicht nur "einzelne Anschlüsse". An iMac und iBook Clamshell konnte man NUR USB- oder FireWire-Periphärie anschließen, in einer Zeit in denen es kaum entsprechendes Zubehör gab. Nicht anders als heute. Die Abkehr von 30-Pin zu Lightning sorgte auch dafür, dass man für die beste Erfahrung sämtliches Zubehör neukaufen musste. Bei PowerPC zu Intel dauerte die Übergangsphase auch nur 3 OS X-Versionen, ab 10.7 lief nur noch x86-Software.

Jedesmal war es dasselbe Spiel und es wird jedesmal wieder dasselbe Spiel werden.
(24.12.2016)Yaktan schrieb: [ -> ]naja außer für die SD-Karte und Mac's sind ja im Foto/Filmbereich sehr beliebt.

SD-Karten gar nicht so sehr wie man denkt, jedenfalls außerhalb des Amateur-Bereichs. In Zukunft wird es wohl eher Cfast, XQD oder SSDs (für Video) nehmen und dann bringt der SD-Slot sowieso nicht mehr so viel. Ein Multicardreader finde ich jetzt auch nicht so groß, dass mir der Wegfall des internen (sowieso meist extrem langsamen) Interfaces besonders weh tun würde.


(24.12.2016)LightningGear schrieb: [ -> ]Aber eigentlich auch eher deswegen, weil die Hersteller der Geräte entweder an integriertem Flash-Speicher geizen oder minderwertige USB-Ausgänge mit 2.0-Geschwindigkeiten haben.

Das Hauptproblem, das SD-Karten nämlich haben, ist dass sie über ein Interface angesprochen werden, welches niedrigere Lese- und Schreibraten hat, als 5400RPM-Festplatten. Die Dinger sind absoluter Müll. Es ist nur absoluter Müll, der sich durchgesetzt hat. Mehr spricht IMO nicht für die weitere Nutzung von SD-Karten.

Das ist jetzt aber auch wieder nicht ganz richtig.

Eine Kamera, die nur integrierten Flashspeicher hätte, würde nie jemand kaufen, auch wenn es 1 TB wäre. Man möchte ja die Möglichkeit haben, die Daten mitzunehmen, ohne dass man die ganze Kamera mitschleppen muss.

Und SD-Karten sind jetzt auch nicht soooo langsam, wie du es beschreibst. UHS-II Karten haben teilweise 300MB/s.
(24.12.2016)LightningGear schrieb: [ -> ]
(24.12.2016)Yaktan schrieb: [ -> ]Nun USB-C mag in Zukunft schon der Standard sein, naja außer für die SD-Karte und Mac's sind ja im Foto/Filmbereich sehr beliebt.

Aber eigentlich auch eher deswegen, weil die Hersteller der Geräte entweder an integriertem Flash-Speicher geizen oder minderwertige USB-Ausgänge mit 2.0-Geschwindigkeiten haben.

Das Hauptproblem, das SD-Karten nämlich haben, ist dass sie über ein Interface angesprochen werden, welches niedrigere Lese- und Schreibraten hat, als 5400RPM-Festplatten. Die Dinger sind absoluter Müll. Es ist nur absoluter Müll, der sich durchgesetzt hat. Mehr spricht IMO nicht für die weitere Nutzung von SD-Karten.
Vor allem UHS-II Karten Wink
Der große Vorteil liegt darin, oh Speicher voll, SD-Karte raus nächste rein, dauert 5 Sekunden und dann kann man weitermachen. ^^
Erst mal Pause einlegen um die Kamera an einem Gerät anzuschließen, welches man dann gegebenfalls erst noch mitführen muss und den Speicher frei zu machen, kann da schon lästig sein. Aber jeder hat auch da seinen eigenen Workflow

(24.12.2016)LightningGear schrieb: [ -> ]
(24.12.2016)Yaktan schrieb: [ -> ]Das einzige worüber ich schmunzeln musste, wenn man sich jetzt ein neues MBP und ein iPhone7 kauft kann man weder das iPhone per Kabel anschließen noch die beigelegten Earpots nutzen, MBP hat ja wieder Klinke Wink
Da hat einer im Ökosystem nicht aufgepasst ^^

Doch, weil Apple vorsieht, dass man das iPhone per Wifi-Sync mit dem Mac verbindet. Und früher oder später werden neue iPhones mit einem USB-C-zu-Lightning-Kabel geliefert werden (oh mann, da wird's dann den nächsten Shitstorm geben... Twilight: No, Really? ). Ein solches Kabel kriegt man direkt von Apple bereits für denselben Preis, den ein USB-A-zu-Lightning-Kabel kostet.
Vor allem Backup und restore geht super über WiFi Wink
Aber verstehe das nicht falsch, es geht mir nicht darum zu sagen "uhhh schau mal wie doof die sind" sondern nur darum das man selbst im eigenen Ökosystem bei einer Alles oder Nichts Umstellung an seine Grenzen kommt ^^
(24.12.2016)LightningGear schrieb: [ -> ]Aber eigentlich auch eher deswegen, weil die Hersteller der Geräte entweder an integriertem Flash-Speicher geizen oder minderwertige USB-Ausgänge mit 2.0-Geschwindigkeiten haben.
So wie das iPhone?
Jetzt, wo Apple ja scheinar im USB-C-Hype ist, wäre es eigentlich auch Zeit, dass das iPhone ebenfalls auf eine USB-C-Buche und USB 3 geupgradet wird. Lightning kann ohne zusätzliche Kontakte nicht mal in der Theorie USB 3 unterstützen, da die Zahl der Pins zu gering ist.

(24.12.2016)LightningGear schrieb: [ -> ]Das Hauptproblem, das SD-Karten nämlich haben, ist dass sie über ein Interface angesprochen werden, welches niedrigere Lese- und Schreibraten hat, als 5400RPM-Festplatten. Die Dinger sind absoluter Müll. Es ist nur absoluter Müll, der sich durchgesetzt hat. Mehr spricht IMO nicht für die weitere Nutzung von SD-Karten.
Es gibt mittlerweile SD-Karten mit UHS II-Schnittstelle, welche bis zu 312 MB/s unterstützt.
Gerade bei Dingen wie Kameras sind wechselbare Speichermedien äußerst sinnvoll, da niemand unterwegs Lust hat, die Bilder mit USB auf sein Laptop/Smart Device kopieren will.

(24.12.2016)LightningGear schrieb: [ -> ]Das waren definitiv nicht nur "einzelne Anschlüsse". An iMac und iBook Clamshell konnte man NUR USB- oder FireWire-Periphärie anschließen
Nicht einzelne Anschlüsse. Ich meinte einzelne Peripheriegeräte. Früher hatte man davon wesentlich weniger. Der ADB-Anschluss betraf z.B. nur Eingabegeräte, welche man bei der Neuanschaffung sowieso oft wechselt. Bei Lightning waren nur Dockingstationen und Adapter betroffen, wobei nur ein Bruchteil der iPhone-User überhaupt so etwas hatte. Selbst beim Klinkenstecker hatten die wenigsten Leute mehr als einen Kopfhörer.
USB-A ist dagegen extrem weit verbreitet und quasi jeder besitzt mehrere Geräte damit. (Ich verwende ca. 10 regelmäßig.) USB-C ist durchaus nett, aber ich würde nie auf die Idee kommen, einen PC oder Laptop nur mit USB-C zu kaufen, an dem ich für absolut alle Geräte, die ich habe und den Großteil der, die es aktuell zu kaufen gibt, einen Adapter benötige.
(24.12.2016)LightningGear schrieb: [ -> ]Doch, weil Apple vorsieht, dass man das iPhone per Wifi-Sync mit dem Mac verbindet.

Wäre eine Möglichkeit. Eine andere wäre, alles über die Cloud zu synchronisieren.

Nachteil bei Apples Modell ist halt, dass man der gläserne Nutzer wird.
Seiten: 1 2 3 4 5 6 7 8 9 10 11 12