Familie des bei Schießerei an der Florida State University Getöteten will OpenAI und ChatGPT verklagen
Anwälte behaupten, der mutmaßliche Schütze habe sich vor der Tat regelmäßig mit ChatGPT ausgetauscht; OpenAI übermittelte Ermittlern Angaben zu einem Konto.
Nach Angaben der Angehörigen wollen sie OpenAI und dessen Chatbot ChatGPT zivilrechtlich belangen. Robert Morales war am 17. April 2025 bei einer Schießerei auf dem Campus der Florida State University getötet worden; zuletzt leitete er den Mensabetrieb der Universität und hatte zuvor als High‑School‑Footballtrainer gearbeitet.
Anwälte der Familie erklärten, sie hätten erfahren, dass der mutmaßliche Schütze vor der Tat in ständiger Kommunikation mit ChatGPT gestanden habe. Die Familie vermutet, der Chatbot habe dem Beschuldigten Hinweise geben können, wie die Tat auszuführen sei. Konkrete Inhalte der angeblichen Unterhaltungen wurden nicht im Wortlaut mitgeteilt.
Zugleich teilte OpenAI mit, das Unternehmen habe ein Konto identifiziert, das mutmaßlich dem Verdächtigen zuzuordnen sei, und alle verfügbaren Informationen an Ermittlungsbehörden weitergegeben. OpenAI erklärte, man habe ChatGPT so entwickelt, dass es Nutzerintentionen einschätze und angemessen reagiere, und arbeite kontinuierlich an Verbesserungen des Systems.
Inzwischen reiht sich der Fall Morales in eine Reihe von Zivilklagen ein, in denen KI‑Chatbots beschuldigt werden, zu selbst- oder fremdschädigendem Verhalten beigetragen zu haben. In den vergangenen Monaten wurden OpenAI und andere Technologieunternehmen bereits in mehreren Verfahren mit ähnlichen Vorwürfen konfrontiert, etwa in Fällen mit Bezug auf Suizid und Gewalttaten.
Daneben bleibt der Tatverlauf selbst Teil der laufenden Ermittlungen: Bei der Schießerei auf dem Campus wurden neben Morales ein weiterer Mann getötet, und sechs Menschen erlitten Verletzungen. Der Prozess gegen den mutmaßlichen Täter ist für Oktober angesetzt.
Gegenstand der angekündigten Klage ist die Behauptung, Interaktionen mit ChatGPT könnten dem Beschuldigten vor und während der Planung der Tat als Anleitung gedient haben. Die Familie fordert nun juristische Klärung der Frage, inwieweit Betreiber von KI‑Systemen für mögliche Folgen der Nutzung haftbar gemacht werden können.