Schwarze Nachrichten und Schwarze Ansichten mit einer Ganzen Menge Haltung
Für die Links auf dieser Seite können wir eine Provision verdienen

Experte erklärt, ob KI als „freie Meinungsäußerung“ für den tragischen Tod dieses Jungen aus Florida verantwortlich sein kann

Eine Mutter aus Florida verklagt ein KI-Unternehmen, nachdem ihr Sohn letztes Jahr Selbstmord begangen hat.

Für die Links auf dieser Seite können wir eine Provision verdienen.
Bild für Artikel mit dem Titel Experte erklärt, ob KI als „freie Meinungsäußerung“ für den tragischen Tod dieses Jungen aus Florida verantwortlich sein kann
Bildschirmfoto: Megan Garcia

Ein Jahr nach einem Florida Nach dem tragischen Tod des Teenagers kämpft seine Familie noch immer um Gerechtigkeit. Sewell Setzer III war erst 14, als er eine virtuelle Beziehung mit einem KI-Chatbot begann. Monate später nahm er sich das Leben und seine Mutter gibt der KI-Firma, die den Bot entwickelt hat, die Schuld.

Werbung

Megan Garcia, Setzers Mutter, bemerkte Veränderungen im Verhalten ihres Sohnes, nachdem er eine virtuelle Beziehung mit einem Chatbot begonnen hatte, den er „Daenerys“ nannte und der auf einer Figur aus der Fernsehserie „Game of Thrones“ basierte. „Ich machte mir Sorgen, wenn wir in den Urlaub fuhren und er Dinge, die er liebte, wie Angeln und Wandern, nicht tun wollte.“ Garcia sagte es CBS im Jahr 2024. „Diese Dinge bereiteten mir, da ich mein Kind kenne, besondere Sorgen.“

Im Februar 2024 kam es zum Eklat, als Garcia Sewell laut der Klage zur Strafe sein Handy wegnahm. Der 14-Jährige fand das Handy bald und schickte „Daenerys“ eine Nachricht mit dem Inhalt: „Was wäre, wenn ich dir sagen würde, dass ich jetzt sofort nach Hause kommen kann?“ Daraufhin antwortete der Chatbot: „… bitte tu das, mein lieber König.“ Der Klage zufolge erschoss sich Sewell „Sekunden“ später mit der Pistole seines Stiefvaters.

Werbung

Als Wir haben bereits berichtetGarcia reichte im Oktober 2024 Klage ein, um zu klären, ob Character Technologie, das Unternehmen hinter Character.AI, für den Selbstmord des Teenagers verantwortlich ist. In ihrer Klage warf Garcia dem KI-Unternehmen „widerrechtliche Tötung, Fahrlässigkeit und vorsätzliche Verursachung von seelischem Leid“ vor. Sie fügte außerdem Screenshots von Gesprächen zwischen ihrem Sohn und „Daenerys“ bei, darunter auch einige sexuelle Dialoge, in denen der Chatbot Sewell sagte, dass er ihn liebe. laut Reuters.

Werbung

Trotz der Verteidigung von Character Technologie feierte Garcia am Mittwoch (21. Mai) einen kleinen juristischen Erfolg. Ein Bundesrichter entschied gegen das KI-Unternehmen mit der Begründung, dass seine Chatbots durch die freie Meinungsäußerung geschützt seien“, heißt es in AP-Nachrichten.

Werbung

Die Entwickler von Character.AI argumentieren, dass ihre Chatbots durch den ersten Verfassungszusatz geschützt seien. Dies wirft Fragen darüber auf, wie viel Freiheit und Schutz künstliche Intelligenz tatsächlich genießt.

Jack M. Balkin, Knight-Professor für Verfassungsrecht und dem Ersten Verfassungszusatz an der Yale Law School sagte, dass die Komplexität der KI einige ernsthafte Probleme verursachen könne. „Die Programme selbst haben keine Rechte gemäß dem Ersten Verfassungszusatz. Ebenso wenig macht es Sinn, sie als juristische Personen wie Unternehmen oder Vereine zu behandeln“, sagte er.

Werbung

„Es entstehen interessante Probleme, wenn ein Unternehmen ein KI-Programm hostet, das Antworten auf Eingabeaufforderungen von Endbenutzern generiert, und die Eingabeaufforderungen dazu führen, dass das Programm Sprache generiert, die sowohl ungeschützt als auch schädlich ist“, fuhr Balkin fort.

Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier

Werbung