Bronies.de

Normale Version: Künstliche Intelligenz
Du siehst gerade eine vereinfachte Darstellung unserer Inhalte. Normale Ansicht mit richtiger Formatierung.
Seiten: 1 2 3 4 5 6 7 8
Hallo Leute!

Ich hab mal n bissl rumgesucht aber hier im Forum noch gar keinen Thread dazu gefunden, denke aber dass es ein durchaus interessantes Thema ist.

Was haltet ihr von künstlicher Intelligenz? Wird sie jemals Realität werden? Wenn ja in welchem Ausmaß? Ist sie eine Gefahr oder eine Möglichkeit und wie kann man verhindern, dass das Hollywood Szenario einer Maschinenrebellion auftritt.

Hierzu gleich mal vorweg die Definition von künstlicher Intelligenz laut Wikipedia:

Im Allgemeinen bezeichnet „künstliche Intelligenz“ oder „KI“ den Versuch, eine menschenähnliche Intelligenz nachzubilden, d. h., einen Computer zu bauen oder so zu programmieren, dass dieser eigenständig Probleme bearbeiten kann.

Also, was haltet ihr davon?
Was ist denn "Intelligenz" überhaupt? Unser Gehirn tut auch nichts anderes als Signale zu empfangen und darauf zu reagieren, nur in einem anderen Maßstab als es bisherige Maschinen könnten.

Der Punkt, an dem die Intelligenz von Maschinen die des Menschen überschreitet, wurde glaube ich für die nächsten 30 Jahre vorausgesehen. Das halte ich für durchaus realistisch. Die Rechenleistung vertausendfacht sich etwa alle 15 Jahre, so lange wird es also nicht mehr dauern.

Die Grundstruktur der Software gibt es bereits. Allen voran Conway's Game of Life, mit welchem es prinzipiell möglich ist einen komplexen, sich selbst weiterentwickelnden und reproduzierenden digitalen Organismus zu schaffen.
Aber wie kann eine Maschine die Intelligenz von Menschen überschreiten? Natürlich laufen Menschen im Grunde genommen auch auf einer einprogrammierten Software, die z.B. dafür sorgt, dass wir bestimmte Instinkte und Verhaltensmuster haben. Ganz zu schweigen davon, dass unser Hirn ja eigentlich ziemlich primitiv und rudimentär ist. Beispielsweise können wir nur in 3 räumlichen Dimensionen denken, was ja eigentlich eher wenig ist.

Aber was Menschen doch Maschinen vorraushaben ist, dass sie Adaptieren können und Kreativität besitzen, wenn auch nur in begrenztem Maße. Man kann zwar niemals etwas wirklich neues erfinden, aber man kann zumindest alte Konzepte erweitern und umformen. Und ich sehe nicht, wie Maschinen das jemals möglich sein soll.
Der eigentliche Vorteil den der Mensch gegenüber der Maschine im Moment hat ist recht simpel. Biologie. Eine Maschine kann ihre Hardware im Moment nicht verändern. Der Mensch schon. Das Gehirn passt sich an. Werden gewisse Denkmuster häufiger benötigt, so reagiert es und stimmt sich darauf ein. Ein Computer kann seine Hardware jedoch nicht selbstständig ändern. Zumindest kenne ich keinen Prozessor der sein interes SChaltbild verändern kann.
Wobei das sicher möglich ist, wenn du genug Maschinen hast. Dann wird halt eine mal abgeschaltet und upgegraded. Was allerdings zu einer interessanten Frage führt: Würden Maschinen, die wie Menschen denken, das überhaupt zulassen? Im Science Fiction geht man irgendwie immer davon aus, dass hochentwickelte Maschinen so ne Art Hive-Mind besitzen und von irgendwoher gesteuert werden, was aber impliziert, dass sie letztendlich doch keinen freien Willen besitzen.

Vermutlich sind die Maschinen erst den Menschen ebenbürtig, wenn sie ein individuelles Bewusstsein entwickeln und dann heißt es wahrscheinlich nicht: Wir gegen die Maschinen. Denn dann haben die wahrscheinlich die selben internen Streitigkeiten wie wir. Und lol, ich stell mir grad Maschinen-Rassismus vor.
Richtig, Maschinen kann man abschalten und upgraden, aber das hängt immer mit Hardware zusammen. Im menschlcihen Gehirn ist das ein selbstständiger, automatischer Prozess. Eine Maschine müsste immer auf neue Hardware zurückgreifen. Ich denke erst wenn eine Maschine ein "Gehirn" besitzt, dass sich selbstständig adaptieren kann, kann man wirklich von künstlichem Leben sprechen.

Für künstliche Intelligenz allein benötigt man dies nicht. Man braucht dazu nur einen ausreichend starken Rechner. Würde man einen Rechner mit der Leistung des Menschlichen Gehirns bauen, so würde das ausreichen als Fundament. Dann müsste man nur noch das Programm erstellen. Dieses Programm müsste lernfähig sein, sich selbst verändern können und irgendwann ein Bewusstsein entwickeln.
(09.01.2015)Whitey schrieb: [ -> ]Aber wie kann eine Maschine die Intelligenz von Menschen überschreiten?

Es geht ja darum wie viel Informationen aufgenommen und verarbeitet werden können. Im Moment ist unser Gehirn da noch vorne, da es die Daten von mehreren Milliarden Zellen prozessieren muss, das würde jeden Computer überlasten.
Im Prinzip ist es alles eine Frage der Rechenleistung. Es geht ja nicht darum, dass die Maschinen dann etwas vollkommen anderes können, sondern nur, dass sie es besser können als wir.

Und warum sollen Maschinen keine Kreativität besitzen? Auch das gab es schon:
Es gibt eine Simulationssoftware, die die Aufgabe hatte einen Menschen mit Gelenken, Knochen, etc. so weit wie möglich laufen zu lassen. Die Software musste selbst herausfinden wie man sich am effizientesten bewegt. Dazu hat sie einfach eine Reihe von Menschen genommen und allen eine zufällige Muskelkontraktion zugewiesen. Diejenigen, die am weitesten vorankamen, wurden ausgelesen und wieder mit der nächsten Kontraktion in verschiedenen Varianten getestet. Das führte dazu, dass komplett neue Bewegungsformen, wie kriechen, rollen oder Saltos, neben dem Laufen zustande kamen. Das ist Evolution durch natürliche Auslese und sowas kann man eigentlich schon als Kreativität gelten lassen.
Der Namen der Software ist mir leider nicht mehr bekannt.
(09.01.2015)zer0x schrieb: [ -> ]Und warum sollen Maschinen keine Kreativität besitzen? Auch das gab es schon:
Es gibt eine Simulationssoftware, die die Aufgabe hatte einen Menschen mit Gelenken, Knochen, etc. so weit wie möglich laufen zu lassen. Die Software musste selbst herausfinden wie man sich am effizientesten bewegt. Dazu hat sie einfach eine Reihe von Menschen genommen und allen eine zufällige Muskelkontraktion zugewiesen. Diejenigen, die am weitesten vorankamen, wurden ausgelesen und wieder mit der nächsten Kontraktion in verschiedenen Varianten getestet. Das führte dazu, dass komplett neue Bewegungsformen, wie kriechen, rollen oder Saltos, neben dem Laufen zustande kamen. Das ist Evolution durch natürliche Auslese und sowas kann man eigentlich schon als Kreativität gelten lassen.
Der Namen der Software ist mir leider nicht mehr bekannt.

Es gab schon viele Ansätze in diese Richtung aber bisher waren es immer spezialisierte Programme die genau zu diesem Zweck geschrieben wurden. Sie waren zwar lernfähig, doch nur im Bereich der ihnen zugeteilten Aufgabe und nicht allgemein oder allumfassend.
Eine künstliche Inteligenz ist im wesentlichen nur dann zu erreichen, wenn man folgende Fragen beachtet und sinnvoll beantwortet:

-Warum? Wofür braucht der Computer die nötige Inteligenz? Was soll er tun?
-Wie soll sich die Inteligenz auszeichnen? In welchen Bereichen soll er lernen?
-Wie soll die Prozedur von statten gehen? Wie soll man dem Computer ermöglichen, eigenständig zu handeln, ohne dass er sich auf basierende Daten und nach strickten Vorgaben verlässt, wie es z.B Virenprogramme tun, sondern intuitiv?

Wenn man diese drei Fragen (bestimmt gibt es da noch einige mehr, aber ich finde, es sind die wichtigsten) für sich beantwortet, hat man die theoretische Inteligenz bereits. Der Rest ist reines zusammenbauen und experimentieren.

Wichtig ist vor allen Dingen, dass es künstliche Inteligenz bereits überall gibt. Zumindest wird sie als solche angepriesen. Aber auch sie laufen nur nach einem Programm ab. Die automatische Einparkvorrichtung für Autos ist beispielsweise nichts anderes, als eine mathematische Formel, trotzdem sagen viele bereits, dass es künstliche Inteligenz ist.

Tatsächlich wäre ein selbstfahrendes Auto ein Anzeichen von Inteligenz. Zwar läuft auch das nach einer Mathematikformel, in Kombination mit Laser- oder Ultraschalltechnik. Aber ein Auto, dass selbstständig eine neue Route berechnet, Abkürzungen sucht, sich durch dichte Reihen und enge Gassen schmuggeln kann, weil es die Breite richtig einschätzt, wäre schon eher das, was ich "Inteligent" nennen würde.

Anders ist es mit den Hollywood-typischen Robotern. Sie sind noch weit von der künstlichen Inteligenz entfernt. In erster Linie muss man ihnen erst einmal das anständige gehen beibringen. Weiterhin ist es wichtig, dass sie ihre Umgebung binnen Bruchteilen von Sekunden analysieren müssten, um nicht gegen das spielende, zweijährige Kind zu treten, während er gerade die zwölfte Stufe erklimmt, um die gefaltene Wäsche in den jeweiligen Räumen zu verteilen, nachdem er, durch die optischen Bildvergleiche der getragenen Kleidung und der gewaschenen Kleidung, herausgefunden, bzw. "erreichnet" hat, welchem der drei Kinder, welcher Pullover gehört.

Wenn wir bei solchen Robotern sind, dann können wir uns sorgen über Endzeitfälle wie iRobot oder Terminator machen Luna TRCV
Genau das ist der Punkt, Wright. Bisher ist alles was als "KI" angepriesen wird eine strikte Programmfolge. Die Programme lernen nicht wirklich dazu. Sie haben nur vom Programmier die Fähigkeit bekommen gewisse Aufgaben zu lösen. Diese Fähigkeit ist aber in Stein gemeißelt. Ein Programm was sich selbst umschreiben kann ist mir nicht bekannt. Intelligent wäre es auch erst dann, wenn es auf unvorhergesehens Reagieren könnte. Auf einen Fall, der bei der Programmierung nicht berücksichtigt wurde.
Also ich beschäftige mich immer wieder mal mit dem Gedanken, was DIE künstliche Intelligenz haben müsste, damit die Erwartungen der Menschen daran gerechtfertigt sind. Spontan fällt mir da immer wieder K.I.T.T. von Knight Rider ein. Das hängt vermutlich mit der universalen Lernfähigkeit der Maschine zusammen. Das Problem was ich sehe ist halt, dass wenn Maschinen adäquat dazu lernen können sollen, sie einen gewissen Grundstock an Informationen brauchen. So wie bei einem Kleinkind. Was das aber für eine Datenmenge sein muss, die man als Grundlage braucht kann ich mir gar nicht vorstellen. Wo fängt man da an zu kalkulieren?
Ich versteife mich auch immer wieder in die Theorie, man müsste die lernende Maschine in den Status eines Kleinkides versetzen von der Wissensbasis her, um die Lernvorgänge zu ermöglichen.
Aber vielleicht ist es ja auch der falsche Ansatz zu wollen, dass die Maschine so lernen soll wie ein Mensch...
(09.01.2015)Hagi schrieb: [ -> ]Genau das ist der Punkt, Wright. Bisher ist alles was als "KI" angepriesen wird eine strikte Programmfolge. Die Programme lernen nicht wirklich dazu. Sie haben nur vom Programmier die Fähigkeit bekommen gewisse Aufgaben zu lösen. Diese Fähigkeit ist aber in Stein gemeißelt. Ein Programm was sich selbst umschreiben kann ist mir nicht bekannt. Intelligent wäre es auch erst dann, wenn es auf unvorhergesehens Reagieren könnte. Auf einen Fall, der bei der Programmierung nicht berücksichtigt wurde.

Das ist im wesentlichen, was Inteligenz ausmacht. Inteligenz bedeutet, aus etwas zu lernen. Selbst wir Menschen denken nicht in allen Bereichen intuitiv. Wir haben gelernt, dass Feuer heiß ist und man nicht die Hand darein hält. Entweder man umgeht es, oder man löscht es. Das ist auch weder inteligent noch eine intuitive Reaktion auf Hitze diesen Ausmaßes, sondern lediglich ein "Programmiercode" der sich in unserem Hirn selbst geschrieben hat und uns sagt: Weißte noch das eine Mal, als du deine Hand ins Feuer gehalten hast? Das hat tierisch geschmerzt, nicht wahr? Lass das besser für dieses Mal bleiben, weil Feuer macht Aua!"

Nichts anderes müsste ein Computer tun. Er müsste nicht seine Programmierung zwingend umschreiben. Alles, was er wissen muss ist:
-Was kann ich sehen?
-Was kann ich tun?
-Was tut mir nicht gut?

Der Rest ist im wesentlichen die Programmierung eines natürlichen Lernshemas. Wenn ein Kind weint und es wird von der Mutter in den Arm genommen und getröstet und die "Behandlung" zeigt Wirkung und das alles sieht der Roboter, dann lernt er im wesentlichen, dass ein Kind Nähe und Geborgenheit braucht, um wieder glücklich zu werden.
Dann kommt aber wieder ein Punkt, wo das Kind wütend ist und Ruhe haben will. Der Roboter greift auf die erste Programmierung zurück und will dem Kind Geborgenheit schenken, erlangt damit aber keinen Erfolg. Und da kommt der Knackpunkt, wo die künstliche Inteligenz entweder failed, oder ein voller Erfolg wird.
Entweder, er lernt, dass das Kind nicht immer glücklich gemacht werden kann und er unterteilt die Gemützustände von Wut und Trauer oder aber er wird das Kind weiterhin mit seiner Fürsorge bedrängen und es immer weiter versuchen, bis das Kind glücklich ist.

Das ist der Knackpunkt der KI. Sie muss intuitiv sein und sowas ist schwer zu programmieren, weil Computer ultimativ denken. Entweder es geht oder es geht nicht.
Ich sehe durchaus eine Möglichkeit, wie künstliche Intelligenz in die Nähe der menschlichen Intelligenz oder gar darüber hinaus kommt:

Man ersetze ein Neuron durch einen Schaltkreis, der dieselbe Funktion hat wie ein menschliches Neuron. Da, sehr einfach gesagt, ein Neuron nichts weiter als Schalterstellungen sind, sollte der Schaltkreis einfach zu realisieren sein, und von der Funktionalität des Gehirns sollte keinerlei Differenz messbar sein (wenn wir mal davon ausgehen, dass wir unendlich fein messen könnten, ohne von der Quantenmechanik eine gewischt zu bekommen - das Ergebnis wurde von der Messung verfälscht).

Nun ersetzt man nach und nach jedes einzelne Neuron durch einen Schaltkreis adäquater Funktion. Bis das komplette Hirn des Menschen aus Schaltkreisen statt Neuronen aufgebaut ist. Da wir hier eine exakte Kopie des menschlichen Gehirns mit exakten Funktionen haben, sollte folgendes möglich sein:
  • Neubildung von Synapsen/Leiterbahnen zwischen den Neuronen/Schaltkreisen
  • Widersetzung von Programmabläufen
  • Gefühlsentwicklung
  • Eigenständiges lernen und Gelerntes weitergeben
  • Erziehung

Wobei wir dann mit der Superkomplexität unseres künstlichen Gehirns noch nicht an Engpässe stoßen werden. Während Reize in uns chemisch ausgelöst werden, und somit nur iirc 400km/s schnell durch das Gehirn wandern, finden im künstlichen Gehirn rein nur elektrische Reize statt, nahe der Lichtgeschwindigkeit, womit Probleme eventuell umgangen werden: Gespeicherte Informationen können schneller abgerufen werden, "vergessene Sachen" schneller gefunden werden, und durch die weitaus schnellere Verarbeitung, blendet das künstliche Gehirn nicht einfach Dinge aus; der Mensch filtert ja i.d.R. nur die wichtigsten Informationen heraus.

Vielleicht brauchen wir aber auch kein Supergehirn, welches eine exakte Kopie des menschlichen Gehirns darstellt, um eine Möglichkeit zu zeigen, dass künstliche Intelligenz der natürlichen Intelligenz das Wasser reichen wird. Vielleicht machen es eines Tages die Quanteninformatik und die Qubits möglich, sehr simple Systeme mit hoher Effektivität und Leistung zu bauen.
Für eine KI bräuchte man nicht einmal unbedingt eine bestimmte Hardware. Ein ausreichend guter Computer der ununterbrochen läuft könnte ja auch ein Programm laufen lassen, dass Intelligenz simuliert. Aka sich eben selbst umschreibt wenn nötig und so weiter.

Ein viel größeres Problem sehe ich eher darin, dass der Mensch das eigene Gehirn noch immer nicht ausreichend verstanden hat. Klar, man weiß ungefähr wie alles funktioniert und hat mittlerweile Einsicht und Verständnis der meisten Vorgänge erlangt. Dementsprechend weiß man auch, was für Voraussetzungen eine KI in der Theorie erfüllen müsste, um so zu funktionieren wie ein menschliches Gehirn.
Nur für die praktische Umsetzung fehlt eben noch das Wissen.

Aber ich persönlich denke, dass das auch nur noch eine Frage der Zeit ist. Auch das Problem das die Maschinen sich möglicherweise gegen uns auflehnen könnten sehe ich nicht so wirklich gegeben. Man könnte von Anfang an ja den Code so schreiben, dass Angriffe auf Menschen nicht möglich sind. Oder ähnliches.
Wenn man die KI dann tatsächlich dem Gehirn nachempfindet sollte das auch Aspekte einschließen, wie z.B. das sich die Software nicht bewusst ändern kann. Also das die Software keinen willentlichen Einfluss auf sich selbst nehmen könnte, um zu verhindern dass sie den Teil der sie daran hindert Menschen zu töten, deaktiviert.

Was sich nicht vermeiden ließe - zumindest wenn es sich wirklich um eine Intelligenz handelt - dass die Maschine Dinge hinterfragt.
Man könnte eine KI also nicht mit dem Ziel erschaffen Arbeitssklaven zu haben, da sie früher oder später hinterfragen würden, warum sie die Arbeit erledigen. Einfach weil sie als Intelligenzformen darüber nachdenken.
Die Frage ist auch: wo wollen wir hin mit der KI? Welche aufgaben soll diese übernehmen? Mir fallen leider keine genügend plausiblen Einsatzzwecke für eine künstliche Intelligenz ein, so wie sie zum Großteil hier beschrieben ist. Soll die KI mal unser Auto fahren? Oder einen Psychologen ersetzen?
Aktuell würde ich die KIs nicht Intelligent nennen......
Sie sind für bestimmte Aufgaben ausgelegt. Ein Navi zb. Eine KI eines Games wie einem Strategiespiel.
KIs bestehen aus Programmen die vom Menschen geschrieben werden. Ich sehe sie als ihre Organe. Ein Programm(e) zum starten und aufrechterhalten des System bei einem PC zb als Kreislauf wie beim Menschen.
Hat der Mensch ein versagen darin wird er krank oder stirbt. Hat der PC das dann wird er eben auch buggy und bekommt leiden oder verreckt.

Ich finde RICHTIGE KI solltr evolutionäre Grundzüge haben. Und das in Sekundenschnelle. Und sie sollte reproduzierbar sein.
Nanotechnologie macht es vor. Irgendwann wird man in der Lage sein kleinste Nanomaschienen zu bauen wie in SciFi filmen. Und sie braucht eine Aufgabe. Ohne Sinn macht das Leben keinen Sinn und man würde nur dahocken und sterben.
Unser Sinn des Lebens ist es unsere Art zu erhalten. Den Körper zu ernähren. Zu schützen. Und uns Glücksgefühle zu geben. Glück, Überleben/ Vermehrung und Schutz sind unser Treiber.

Was braucht eine Maschine? Ressourcen. Energie. Und ein Ziel was ihr gegeben wird.
Reine Reproduktion wäre tödlich zb. Sie würde ein verlangen nach Ressourcen bekommen die unendlich wäre. Umformen der Umgebung? Sogenanntes terraformen......was wenn die Maschine dann zb den Lebensraum des Menschen urbar machen will und ihn daraus verdrängt da es nur diese Aufgabe hat?

Man braucht also bei jeder Maschine einen Ausschalter ansonsten hat man etwas sehr gefährliches geschaffen. Und richtige KI muss sich selber erschaffen. Menschen fuschen da nur unnötige Aufgaben rein oder gefährliche Fehler.
Außerdem wären solche Aufgaben ja fesseln. Wir haben unsere Aufgaben /Arbeit da wir das Geld zum Überleben brauchen. Maschinen ist das egal. Sie würden die Sklaverei erkennen die daraus wächst.

Warum sollte also ein Toaster für einen Menschen etwas toasten sollen wenn er sich verändern könnte um etwa Solarzellen zu bilden oder sich zu reproduzieren. Der Mensch wäre nur Last.
So wie die Tierwelt für unsere Städte zb -.-

Denkt an den Neandertaler. Künstliche Intelligenz gibt es aktuell nicht wirklich. Und Synthetisches Leben sollte niemals geschaffen werden
Wie bereits gesagt ist die Frage zunächst mal, was man von einer KI erwartet. Das Gehirn eines Menschen 1:1 nachzubilden ist wohl nur eine Frage der Zeit, aber gar nicht wichtig denke ich. So etwas wie sich neu bildende Verbindungen zwischen Neuronen wäre nicht nötig, denn ein Computer hat keine festen Bereiche für bestimmte Tätigkeiten und Gefühle, es müssen also auch nicht Synapsen an bestimmten Stellen entstehen, sondern es kann einfach noch freie CPU Leistung genutzt werden.

Es gibt bereits KIs, die Schach spielen, Emotionen erkennen, klassische Musik komponieren oder alles mögliche andere machen. Das basiert auf meistens maschinellem Lernen, dem Programm werden also Unmengen an Bildern, Texten und anderen potentiellen Informationsquellen zugeführt aus denen es selbst Schlüsse zieht. Selbstständiges Lernen ist also seinen Grundzügen schon vorhanden und unterscheidet sich nicht grundlegend vom Menschen. Auch ein Mensch baut nur auf den gemachten Erfahrungen und einem kleinen Basisprogramm auf. Menschen sind gut darin neue Konzepte zu verstehen und Muster zu erkennen, aber Algorithmen werden darin auch immer besser. Bis zu einer KI, die sich auf Augenhöhe mit einem Menschen unterhalten kann über einen gerade gesehenen Film etwa wird es noch einige Jährchen dauern, aber ich habe keine Zweifel daran, dass wir sie in unserer Lebenszeit noch erleben werden.

Was die Folgen wären, lässt sich nur schwer abschätzen, es hängt vor allem davon ab, was wir daraus machen. Angst vor einer Art Terminator habe ich aber nicht.
(09.01.2015)DrDerrek schrieb: [ -> ]Die Frage ist auch: wo wollen wir hin mit der KI? Welche aufgaben soll diese übernehmen? Mir fallen leider keine genügend plausiblen Einsatzzwecke für eine künstliche Intelligenz ein, so wie sie zum Großteil hier beschrieben ist. Soll die KI mal unser Auto fahren? Oder einen Psychologen ersetzen?
Autos zu steuern oder ähnliches wäre denke ich sogar eine realistische Anwendungsmöglichkeit. Und nciht mal so unwahrscheinlich. Auch die Arbeit an Orten mit extremen Bedingungen wäre für einen Roboter mit menschenähnlicher Intelligenz durchaus sinnvoll. Als Psychologen wären sie denke ich nicht unbedingt einsetzbar, allein schon weil viele Menschen wohl ein Problem mit dem Gedanken hätten von einer Maschine therapiert zu werden oder so.

Die wesentlich interessantere Frage wäre an dem Punkt meiner Meinung nach aber eh, ob die KI überhaupt für uns arbeiten würde. Statt irgendetwas anderes zu tun, dass ihr lieber wäre. Schließlich gehört - wie bereits von mir erwähnt - zur Intelligenz auch das Hinterfragen von Anweisungen und so.
(09.01.2015)DerWächter/mmmm schrieb: [ -> ]Als Psychologen wären sie denke ich nicht unbedingt einsetzbar, allein schon weil viele Menschen wohl ein Problem mit dem Gedanken hätten von einer Maschine therapiert zu werden oder so.

Das muss der Mensch ja nicht unbedingt wissen. Weizenbaum hat ja damals mit ELIZA genau diesen Versuch gewagt - mit überraschenden Ergebnissen. Dieses Computerprogramm simuliert ein Gespräch mit einem Psychologen und funktioniert sehr simpel. Und viele Menschen wollten hinterher nicht wahr haben, dass sie in Wahrheit mit einem Computerprogramm kommuniziert haben...
(09.01.2015)DrDerrek schrieb: [ -> ]Das muss der Mensch ja nicht unbedingt wissen. Weizenbaum hat ja damals mit ELIZA genau diesen Versuch gewagt - mit überraschenden Ergebnissen. Dieses Computerprogramm simuliert ein Gespräch mit einem Psychologen und funktioniert sehr simpel. Und viele Menschen wollten hinterher nicht wahr haben, dass sie in Wahrheit mit einem Computerprogramm kommuniziert haben...
Nagut ohne das Wissen des jeweiligen wäre es wieder was anderes. Das Experiment finde ich übrigens in der Hinsicht wirklich interessant.
Und eine KI hätte dem dem Programm aus dem Versuch ja noch eine wichtige Sache vorraus. UNd zwar wäre eine KI zu echtem Verständnis in der Lage, statt nur dem Gesprächspartner das Gefühl von Verständnis zu vermitteln.

Wobei es sicherlich seinen Weg in die Medien finden würde, wenn mit einem Mal KIs statt realer Menschen als Psychiater eingesetzt werden. Und dann wären manche Menschen nur noch von vornherein misstrauisch, wenn sie zu nem Psychiater gehen ^^
Seiten: 1 2 3 4 5 6 7 8