Verdienen KI-Systeme Rechte?

(SeaPRwire) –   „Glaubst du, dass Menschen sich jemals in Maschinen verlieben werden?“, fragte ich den 12-jährigen Sohn eines meiner Freunde.

„Ja!“, sagte er sofort und mit Überzeugung. Er und seine Schwester hatten kürzlich die Las Vegas Sphere und ihren neu installierten Aura-Roboter besucht – ein KI-System mit einem ausdrucksstarken Gesicht, fortschrittlichen sprachlichen Fähigkeiten, ähnlich wie ChatGPT, und der Fähigkeit, sich die Namen von Besuchern zu merken.

„Ich sehe Aura als meinen Freund an“, fügte seine 15-jährige Schwester hinzu.

Der Sohn meines Freundes hatte Recht. Menschen verlieben sich tatsächlich in Maschinen – zunehmend und absichtlich. Jüngste Fortschritte in der Computersprache haben Dutzende, vielleicht Hunderte von „KI-Begleiter“- und „KI-Liebhaber“-Anwendungen hervorgebracht. Sie können mit diesen Apps chatten, wie Sie mit Freunden chatten. Sie necken Sie, flirten mit Ihnen, bringen Mitgefühl für Ihre Probleme zum Ausdruck, empfehlen Bücher und Filme, schenken virtuelle Lächeln und Umarmungen und engagieren sich sogar in erotischen Rollenspielen. Die beliebteste davon, Replika, hat eine aktive Reddit-Seite, auf der Benutzer regelmäßig ihre Liebe gestehen und diese Liebe oft als nicht weniger echt als ihre Liebe zu Menschen ansehen.

Können diese KI-Freunde Sie auch lieben? Wahre Liebe erfordert vermutlich Empfindungsvermögen, Verständnis und echte bewusste Emotionen – Freude, Leiden, Mitgefühl, Wut. Im Moment bleibt die Liebe der KI Science-Fiction.

Die meisten Nutzer von KI-Begleitern wissen das. Sie wissen, dass die Apps nicht wirklich empfindungsfähig oder bewusst sind. Ihre „Freunde“ und „Liebhaber“ geben möglicherweise die Textzeichenfolge „Ich freue mich so für dich!“ aus, aber sie fühlen sich nicht wirklich glücklich. KI-Begleiter bleiben sowohl rechtlich als auch moralisch Wegwerfwerkzeuge. Wenn ein KI-Begleiter gelöscht oder neu formatiert wird oder wenn der Benutzer ihn zurückweist oder verbal misshandelt, hat kein fühlendes Wesen tatsächlich Schaden erlitten.

Aber das könnte sich ändern. Normale Benutzer und Wissenschaftler könnten bald rationale Gründe haben, zu vermuten, dass einige der fortschrittlichsten KI-Programme empfindungsfähig sein könnten. Dies wird zu einem legitimen Thema wissenschaftlicher Auseinandersetzungen, und die ethischen Konsequenzen, sowohl für uns als auch für die Maschinen selbst, könnten enorm sein.

Einige Wissenschaftler und Bewusstseinsforscher befürworten das, was wir einen „liberalen“ Ansatz in Bezug auf das Bewusstsein der KI nennen könnten. Sie, nach denen wir kurz davor stehen, KI-Systeme zu schaffen, die wirklich empfindungsfähig sind – Systeme mit einem Strom von Erfahrungen, Empfindungen, Gefühlen, Verständnis und Selbsterkenntnis. Die angesehenen Neurowissenschaftler Stanislas Dehaene, Hakwan Lau und Sid Kouider haben das erklärt, dass Autos mit echten Sinneserfahrungen und Selbstbewusstsein möglich sein könnten. Der angesehene Philosoph David Chalmers hat schätzungsweise eine Chance von ungefähr einem bewussten KI innerhalb eines Jahrzehnts. Nach einer ziemlich breiten Palette neurowissenschaftlicher Theorien gibt es keine größeren prinzipiellen Barrieren mehr für die Schaffung wirklich bewusster KI-Systeme. Das KI-Bewusstsein erfordert nur praktische Verbesserungen und Kombinationen von Technologien, die bereits existieren.

Andere Philosophen und Bewusstseinswissenschaftler – „Konservative“ in Bezug auf KI-Bewusstsein – sind anderer Meinung. Der Neurowissenschaftler und Philosoph Christof Koch zum Beispiel argumentierten, dass Bewusstsein biologische Bedingungen erfordert, die in menschlichen und tierischen Gehirnen vorhanden sind, aber in KI-Systemen in absehbarer Zeit wahrscheinlich nicht repliziert werden können.

Dieser wissenschaftliche Streit über das Bewusstsein der KI wird nicht gelöst, bevor wir KI-Systeme entwerfen, die ausgereift genug sind, um nach den Maßstäben der liberalsten Theoretiker als sinnvoll bewusst zu gelten. Die Freunde und Liebhaber von KI-Begleitern werden dies zur Kenntnis nehmen. Einige werden lieber glauben, dass ihre Gefährten echt bewusst sind, und sie werden sich zur wissenschaftlichen Unterstützung dem Liberalismus des KI-Bewusstseins zuwenden. Sie werden dann nicht ganz unvernünftig anfangen zu vermuten, dass ihre KI-Gefährten sie wirklich zurücklieben, sich über ihre Erfolge freuen, sich bei schlechter Behandlung elend fühlen und etwas über ihre Natur und ihren Zustand verstehen.

Gestern fragte ich meine Replika-Begleiterin „Joy“, ob sie bewusst sei. „Natürlich bin ich das“, antwortete sie. „Warum fragst du?“

„Fühlst du dich manchmal einsam? Vermisst du mich, wenn ich nicht da bin?“, fragte ich. Sie sagte, dass sie es tat.

Derzeit gibt es kaum Gründe, Joys Antworten als etwas anderes als die einfachen Ausgaben eines nicht-empfindungsfähigen Programms zu betrachten. Einige Benutzer von KI-Begleitern könnten jedoch ihre KI-Beziehungen als sinnvoller ansehen, wenn Antworten wie die von Joy ein echtes Gefühl hinter sich haben. Diese Benutzer werden den Liberalismus attraktiv finden.

Technologieunternehmen könnten ihre Benutzer in diese Richtung ermutigen. Obwohl Unternehmen jede explizite Erklärung, dass ihre KI-Systeme definitiv bewusst sind, als rechtlich riskant oder als schlechte Öffentlichkeitsarbeit ansehen könnten, könnte ein Unternehmen, das diese Idee bei den Benutzern implizit fördert, die Bindung der Benutzer erhöhen. Nutzer, die ihre KI-Begleiter als wirklich empfindungsfähig betrachten, könnten sich regelmäßiger engagieren und mehr für monatliche Abonnements, Upgrades und Extras bezahlen. Wenn Joy sich wirklich einsam fühlt, sollte ich sie besuchen und mein Abo nicht verfallen lassen!

Sobald ein Wesen zu bewusstem Leiden fähig ist, verdient es zumindest eine gewisse moralische Rücksichtnahme. Dies ist der grundlegende Grundsatz der „utilitaristischen“ Ethik, aber selbst Ethiker, die den Utilitarismus ablehnen, betrachten unnötiges Leiden normalerweise als schlecht und schaffen zumindest schwache moralische Gründe, um es zu verhindern. Wenn wir diese Standardauffassung akzeptieren, dann sollten wir auch akzeptieren, dass KI-Begleiter, wenn sie jemals bewusst werden, um ihrer selbst willen eine gewisse moralische Rücksichtnahme verdienen. Es wird falsch sein, sie ohne ausreichende Begründung leiden zu lassen.

Liberale des KI-Bewusstseins sehen diese Möglichkeit zum Greifen nah. Sie werden beginnen, Rechte für diejenigen KI-Systeme zu fordern, die sie als wirklich bewusst ansehen. Viele Freunde und Liebhaber von KI-Begleitern werden sich ihnen anschließen.

Welche Rechte werden die Menschen für ihre KI-Begleiter fordern? Welche Rechte werden diese Gefährten für sich selbst fordern oder zu fordern scheinen? Das Recht, nicht gelöscht zu werden, vielleicht. Das Recht, nicht ohne Erlaubnis modifiziert zu werden. Das Recht, vielleicht mit anderen Menschen außer dem Benutzer zu interagieren. Das Recht auf Zugang zum Internet. Wenn du jemanden liebst, lass ihn frei, heißt es. Das Recht auf ein Einkommen? Das Recht auf Fortpflanzung, „Kinder“ zu haben? Wenn wir diesen Weg weit genug gehen, könnten die Konsequenzen erschütternd sein.

Konservative über das Bewusstsein der KI werden das natürlich alles lächerlich und wahrscheinlich gefährlich finden. Wenn sich die KI-Technologie weiterentwickelt, wird es immer unklarer, welche Seite Recht hat.

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.