Robots in love. Wann ist ein Mensch ein Mensch?

    • Robots in love. Wann ist ein Mensch ein Mensch?

      Die westliche Welt ist mittlerweile stark bereichert in Technologie, dass sie eigentlich nicht mehr wegzudenken ist.
      Gleichzeitig machen wir den klaren Schnitt, dass eine Maschine ein Werkzeug ist.
      In Zeiten wo sich künstliche Intelligenz immer schneller weiterentwickelt, sind wir bald nicht mehr allzu fern davon, einen Android zu haben, der menschliches Empfinden soweit emulieren kann, dass dieser in seinem Arbeitsbereich von einem Menschen nicht mehr zu unterscheiden ist. Die praktischen Nutzen sind vielseitig; man braucht keine echten Probepatienten mehr, um unterschiedliche Eingriffe für Ärzte zu simulieren, sie sind empathisch genug um psychotherapeutisch zu unterstützen und würden als Prostituierte nicht den Risiken und Kosten ausgesetzt werden, die ihr menschlicher Gegenpart hätte.
      Die Frage die sich mir stellt ist, darf man einem empathischen Wesen einen Willen aufzwingen? Auch wenn diese eine eher mechanische Form der Empathie ist, die Emotionen wären sichtlich vorhanden und könnten von einem geschickten Programmierer leicht abzuändern sein. Erfahrungen, Gespeichertes, Erinnerungen sind nur Daten, die abänderbar sind. Zwischen Peiniger und geliebter Person liegt nur die Erinnerung über die Emotion. Wäre es ethisch ein emotionales Wesen durch solche Mittel an einen Besitzer zu knüpfen?
      Machen wir den Unterschied zwischen einem Ding und einer Person von der Komplexität der Gedanken abhängig oder von dem Ursprung.

      Auch zu bedenken ist, dass die Erforschung des menschlichen Gehirns auch immer mehr Zugriff auf Erinnerung und Empfindungen bietet. Es ist mittlerweile möglich, Erinnerungen, die mit einer negativen Emotion belegt sind zu entfernen, also auch in Zukunft zu verändern oder zu entschärfen. Auch wenn der Nutzen bei Depressionen und PTSD-Patienten gegeben ist, so hat auch diese Findung seine Kehrseite. Wenn einem Menschen Unrecht widerfährt und die Erinnerung daran wird entfernt, so ist dieses Unrecht de facto nicht passiert, zumindest nicht für das Opfer. Folter, Vergewaltigung, Verlust sind einfach unangeklagt vergessen.

      Also haltet vielleicht ein Photoalbum parat, vielleicht fällt euch dann das erinnern leichter.

      Addendum: Es wird häufig die Autonomie von KIs eingeschränkt. Bevor eine Drohne einen Menschen erschießt, muss die Drohne den Knopfdruck eines Menschen erhalten.
      Doch, ist das richtig? KIs haben den Vorteil, dass sie durch interne Verbindungen auf die Erfahrungen aller angeschlossenen KIs nutzen kann, und nicht nur die Eigenen. Medizinische Diagnosen und Behandlungsauswahlen werden den Maschinen leichter fallen als einem Menschen.
      Unkorrumpierbar sind sie besser geeignet für die meisten Tätigkeiten, bei denen Menschen egoistisches Verhalten an den Tag legen. Marktwirtschaft, Justiz wären ohne Vorurteil.
      Dennoch wehren sich viele Denker der heutigen Zeit gegen die Autonomie der AI. (u.A. Elon Musk, Bill Gates, Stephen Hawking).
      Wie denkt ihr darüber?

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von shadow mirror ()

    • shadow mirror schrieb:

      In Zeiten wo sich künstliche Intelligenz immer schneller weiterentwickelt, sind wir bald nicht mehr allzu fern davon, einen Android zu haben, der menschliches Empfinden soweit emulieren kann, dass dieser in seinem Arbeitsbereich von einem Menschen nicht mehr zu unterscheiden ist.
      Dem würde ich widersprechen. Wir sind alles andere als nah dran, Maschinen menschliches Empfinden "einzuprogrammieren". Mal davon abgesehen, dass emotionaler Ausdruck nach Außen hin nicht automatisch emotionales Empfinden mit einschließt.
    • Das ist grundsätzlich eine gute Thematik für eine Sonntagsdiskussion, hab' selbst unlängst mal mit meinen Bandkollegen drüber diskutiert. Da ich aber schon am Sprung ins Bett bin, hier eine Liste, die Probleme aufzeigt, die sich dabei in meinen Augen stellen:
      • Mir ist nicht ganz genau klar, worüber du jetzt diskutieren möchtest. Vielleicht kannst du das ja noch präzisieren.
      • Es ist blauäugig zu behaupten, der Mensch könne schon Maschinen bauen, die menschlich sind (da schließe ich mich also HeyDays Kritik an).
      • Individualität oder Persönlichkeit kann nicht bloß kausal beschrieben werden. Ein Mensch ist mehr, als die äußeren Umstände, die einen Einfluss auf ihn haben.
      Speziell der letzte Punkt ist meinen Augen essentiell. Dafür werde ich mal meinen philosophy-brother G.W.F. Hegel (Phänomenologie des Geistes, 2014:230f [1807]) zitieren:

      G.W.F. Hegel schrieb:

      Die bewußte Individualität hingegen geistlos als einzelne seiende Erscheinung zu nehmen, hat das Widersprechende, daß ihr Wesen das Allgemeine des Geistes ist. [...] Die Momente, die den Inhalt des Gesetzes ausmachen, sind einerseits die Individualität selbst, andererseits ihre allgemeine unorganische Natur, nämlich die vorgefundenen Umstände, Lage, Gewohnheiten, Sitten, Religionen, usw.; aus diesen ist die bestimmte Individualität zu begreifen. [...] Das Gesetz dieses Verhältnisses der beiden Seiten müßte nun dies enthalten, was diese bestimmte Umstände für eine Wirkung und Einfluß auf die Individualität ausüben. Diese Individualität aber ist gerade dies [...] Was auf die Individualität Einfluß und welchen Einfluß es haben soll - was eigentlich gleichbedeutend ist -, hängt darum nur von der Individualität selbst ab; dadurch ist diese Individualität diese bestimmte geworden. heißt nichts anderes als: sie ist dies schon gewesen.
      Mehr dazu gerne morgen.

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von Ocarina of Time ()

    • Ulyaoth schrieb:

      Wieso sollte man einer Maschine überhaupt Emotionen mit Müh und Not einprogrammieren? Das ist doch gerade ihr Vorteil, dass sie komplett ohne Gefühle an eine Sache herangehen kann.
      Nun, man muss schauen, wie man einer KI jetzt beibringt, dass es z.B. nicht in unserem Sinne zweckmäßig ist, die Menschheit auszurotten, wenn man von ihr wissen will, wie man das Leid auf der Welt verringern kann. Ob das dann wirklich "Emotionen" sind, weiß ich nicht, und ich finde die Prämisse, wir seien kurz davor, auch etwas merkwürdig.
    • Asmivos drei Gesetze der Robotik- " 1.A robot may not injure a human being or, through inaction, allow a human being to come to harm.
      2. A robot must obey orders given it by human beings except where such orders would conflict with the First Law.
      3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Law." werden, auch wenn sie aus der Science-Fiction Literatur stammen, tatsächlich in der echten Robotik bedacht. Da das Grundwesen der Maschine vom Menschen programmierbar sind, können wir also tatsächlich dystopische Übergriffe der Roboter eigentlich logisch ausschließen, da man dem digitalen Hirn bereits im Vorraus Schutzmechanismen einbauen kann. Um diese Grundprogrammierung zu übergehen müsste die Maschine ein autonomes Bewusstsein mit eigener Intelligenz entwickelt haben. Dafür müsste ihre KI fähig sein, sich selber weiterzuentwickeln, also zu lernen, und sich zu reproduzieren. In diesem Falle hätten wir die Transzendenz erreicht und wären am Morgen eines neuen Zeitalters, in welchem wir uns dem Dilemma gegenüberstehen, ein greifbarer Gott einer neuen "Lebensform" (nicht im biologischen, sondern im philosophischen Sinne, natürlich) geworden zu sein. Während der intelligente Android zwar hypothetisch fähig wäre, eine Persönlichkeit und Individualität zu entwickeln, durch welche er uns moralisch eigentlich gleichauf sein sollte, wäre es uns technisch vermutlich immernoch möglich, seine Programmierung nachwirkend zu beeinflussen. Dies würde bedeuten, dass sich beispielsweise ungewollte Persönlichkeitsmerkmale ausmerzen ließen, um eine gesellschaftliche Stellung des Roboters unter dem Menschen zu bewerkstelligen. Ethisch wäre dies natürlich mehr als nur fragwürdig; Insbesondere, da mit dem Advent der Androiden wohl auch der der Cyborgs Hand in Hand gehen wird, was bedeutet, dass solche Reprogrammierungspraxen sicherlich auch in (augmentierten) menschlichen Hirnen zu bewerkstelligen seien. Allerdings denke ich persönlich nicht, dass die Möglichkeit des Missnutzens ein Argument gegen den Fortschritt darstellt, da mir die pessimistische Hoffnungslosigkeit gegen die menschliche Natur als etwas.. hoffnungslos aufstößt.
      Ein großer Denkfehler in vielen Szenarien, die sich mit neuen Technologien außereinandersetzen, ist in der Regeln, dass das Neue das Alte ersetzen würde. Auch, wenn eine KI ein Bewusstsein entwickelt, bedeutet dies nicht, dass selbiges für jeglichen Apparat gelten würde. Jedem Sci-Fi-Fan drängt sich sicherlich der Gedanke auf, dass ein intelligenter Android einen Putzroboter als Teil seiner Spezies verstehen würde, doch ist das reine Spekulation. Wären die Roboter visuell distinktiv genug gestaltet ist es ebenso möglich, sie durch ihre Software zu definieren und ihnen dieses Verständnis von der Wiege an im Grundprogramm mitzugeben. Dementsprechend könnten Nutzroboter mit "simpler", aufgabenspezifischer Programmierung getrennt von Androiden existieren.
      Sobald wir und die Roboter (zumindest zum Teil) gleichauf sind, müssten wir als Spezies eigentlich die Autonomie und Gleichwertigkeit dieser akzeptieren. Generell stellt man sich gerne Gesellschaften vor, in welchem "reine" Menschen aus Fleisch und Blut zusammen mit Robotern leben, in gegenseitigem Misstrauen. Allerdings denke ich, dass es fast schon wahrscheinlicher ist, dass die elektronische Verbesserung des menschlichen Körpers bis zu diesem Zeitpunkt schon so weit fortgeschritten sein wird, dass der Mensch sich auch nicht mehr wirklich als rein organisches Geschöpf bezeichnen kann. Freuds Prothesengott würde wörtliche Realität. Wie man das werten möchte, bleibt natürlich jedem selber überlassen, aber ich persönlich sehe dies mit einem Schulterzucken als nächste Evolutionsstufe des Menschen und einen Vorgang, dessen Gefahren aus der Furcht ihm gegenüber stammen.
      Der OP bezieht sich jetzt großteils auf Empathie, und das sehe ich als etwas schwierig; Empathie bezieht sich stark auf emotionale, abstrakte Konzepte, von denen wir nicht wissen können, ob selbst ein autonomes künstliches Bewusstsein zur Reproduktion fähig sei. Empathie beschreibt Mitgefühl und Einfühlsamkeit, und bisweilen gibt es soweit ich weiß keine Maschine, die dazu auch nur ansatzweise in der Lage wäre- wenn dies überhaupt jemals möglich sein wird. Ich kann mir vorstellen, dass ein Aktion-Reaktion System, welches bestimmte Mimiken und Gestiken erkennt und diese gewissen Emotionslagen zuordnen kann, implementiert würde, doch bin ich mir nicht sicher, ob sich dies wirklich schon mit Empathie vergleichen ließ.
    • Ulyaoth schrieb:

      Die Menschheit nicht auszurotten ist mehr ein Handlungsparameter und nicht wirklich eine Emotion, finde ich.
      Es war ja auch bloß ein Beispiel. Was ist, wenn du einen Parameter übersiehst, der irgendwie fatal ist? Ich glaube ihre Anzahl geht gegen unendlich, denn die echte Welt ist sehr komplex, und deshalb muss die KI auch selbst irgendwie wissen was gut ist und was nicht. Ist natürlich was anderes als traurig sein wenn man ein totes Kätzchen sieht, vielleicht reden wir auch aneinander vorbei.
    • Da ich jetzt nicht genau erkennen kann, ob der Thread einen bestimmten Zweck hat oder einfach zum Brainstorming gedacht ist, schreibe ich einfach mal drauflos.

      Ich weiß nicht, wer hier schon mal mit Mass Effect zu tun hatte, aber seit ich die Trilogie spiele, drängt sich mir eine Rasse aus der Geschichte bei dem Thread geradezu auf: die Geth. Ursprünglich als KI angelegt, die ihre Schöpferrasse, die Quarians, unterstützen sollte, entwickeln die Programme ein kollektives Bewusstsein - je mehr Geth ( = Programme) synchronisiert sind, desto intelligenter sind sie und zu umso komplexeren Schlüssen kommen sie, bis hin zur Auflehnung gegen ihre Schöpferrasse, als die entschied, dass sie die Geth zerstören müsse. In dem Fall also Krieg aus Selbstschutz - etwas, das, wenn man Asimovs drei Gesetze im Hinterkopf hat, niemals eintreten dürfte.

      Allerdings hat mich das Ganze zum Nachdenken gebracht. Wir sind davon sicher noch ein gutes Stück entfernt, aber wenn artifizielle Intelligenz einmal so weit kommt, dass sie ein eigenes (wenn vielleicht auch wie bei den Geth kollektives) Bewusstsein entwickelt, wer sind wir, es ihr abzusprechen? Wieso eine scharfe Linie ziehen zwischen Mensch und Maschine? Streng genommen sind wir alle jetzt schon Cyborgs - technische Mittel erweitern unsere alltäglichen Handlungen und Aufgaben, von der iWatch ist es auch nicht mehr weit bis zu Chips, die unser vegetatives Nervensystem überwachen und uns bei der richtigen Nahrungsaufnahme unterstützen. Der Mensch nähert sich der Maschine an. Da empfinde ich Gedanken, die eine mögliche Persönlichkeit in KIs für undenkbar halten, für beinahe engstirnig.

      Donna Harraway war es neben vielen anderen, die sich Gedanken um Cyborgs gemacht hat. Sie bezieht das, soweit ich weiß, zwar mehr auf das Mann-Frau-Binärsystem, das so schädlich für die beiden Geschlechter (und für alle anderen Geschlechter dazwischen) sein kann, aber ihr Gedanke - Cyborgs als Chance, die Linie zwischen den Geschlechtern auszulöschen - lässt sich meines Erachtens auch auf das Binary Mensch-Maschine anwenden: Es existiert vorrangig in unseren Köpfen. Zumindest, wenn die Entwicklung so voranschreitet, wie wir es in diversen SciFi-Szenarien sehen. C3PO, R2-D2, die Geth, "I, Robot", Asimovs Geschichten (die ich mal auf meine Lektüreliste setzen muss) - ich denke, diese Szenarien kommen nicht von ungefähr. Sobald wir so komplexe KIs erstellen, dass diese in der Lage sind, ihre eigenen logischen Schlüsse zu ziehen, müssen wir unsere Position als "Schöpfer" überdenken. Unser Gehirn funktioniert auch nur mit elektrischen Impulsen und generiert darüber Empfindungen, die uns mal unterstützen bei unseren Schlüssen und uns andererseits auch im Weg stehen können. Sobald KIs ein mindestens ähnlicher Prozess zugrunde liegt, KANN der Mensch sich nicht mehr logisch als einzige denkende und fühlende Rasse wahrnehmen. Dem Gedanken liegt ein Gottkomplex zugrunde, der auch heute noch dazu führt, dass auch Tieren jedes Denken und Fühlen abgesprochen wird, obwohl es längst genug gegenteilige Beweise gibt. Wir als Menschen müssen aufhören, uns als etwas Besonderes zu betrachten, denn das sind wir nicht. Solange wir als Gesellschaft diese Gedankenmuster nicht loswerden, sind wir einfach nicht bereit für echten Fortschritt. Meine fünf Cent dazu.

      "Heirs of Miraika"
      Fantasy, Steampunk, LGBT+

      "Dreaming of Dawn"
      Fantasy, Psychological, Depression