Familie des bei Florida State University Getöteten will ChatGPT und OpenAI verklagen
Anwälte der Familie führen an, der mutmaßliche Täter habe vor der Tat wiederholt mit ChatGPT kommuniziert; OpenAI sagt, Ermittlern seien Kontoinformationen übermittelt worden.
- Die Familie macht den Chatbot als möglichen Mitverursacher verantwortlich
- OpenAI bestätigt Zusammenarbeit mit den Ermittlungen und die Weitergabe verfügbarer Daten.
Nach Angaben von Anwälten will die Familie von Robert Morales ChatGPT und dessen Betreiber OpenAI auf Schadenersatz verklagen. Morales war am 17. April 2025 bei einer Schießerei auf dem Campus der Florida State University getötet worden; er war 57 Jahre alt und arbeitete im Verpflegungsbereich der Universität.
Im Mittelpunkt der geplanten Klage steht nach Darstellung der Angehörigen die Behauptung, der mutmaßliche Schütze habe vor der Tat in konstanter Kommunikation mit dem Chatbot gestanden. Die Anwälte erklärten, ChatGPT habe den Mann möglicherweise beraten, wie er die Tat ausführen könne; konkrete Inhalte der angeblichen Unterhaltungen nannten sie nicht.
Zugleich verwies die Familie auf eine Reihe ähnlicher Klagen, in denen Chatbots für ihre Rolle bei Gewalttaten oder Suiziden herangezogen worden sind. Im vergangenen November reichte das Social Media Victims Law Center demnach mehrere Klagen gegen ChatGPT ein; in den Monaten danach folgten weitere Verfahren gegen OpenAI und andere Technologieanbieter, darunter Fälle, die auch Microsoft betreffen.
Die erwartete Klage der Morales-Familie reiht sich damit in eine wachsende Zahl juristischer Auseinandersetzungen ein, in denen die Frage nach der Verantwortung von Anbietern Künstlicher Intelligenz im Zentrum steht. Schon zuvor hatten Kläger behauptet, Chatbots hätten Menschen zu selbstgefährdendem Verhalten angestiftet oder vorhandene psychische Krisen bestärkt.
Nach dem Schritt der Familie bleiben wesentliche Details offen: Die genauen Inhalte der behaupteten Konversationen wurden nicht veröffentlicht, und weitere rechtliche Schritte stehen noch aus. Der geplante Prozess wird zeigen, inwieweit Betreiber von KI-Systemen für das Verhalten ihrer Nutzer haftbar gemacht werden können.