Emotional AI verändert Online‑Beziehungen und verwischt Identitäten, warnt Expertin
Penny Chai von Sumsub warnt, dass Social Engineering, emotionale Manipulation und synthetische Identitäten die Grenze zwischen realen Kontakten und künstlichen Verbindungen zunehmend aufweichen.
Nach Angaben von Penny Chai, Vice President für APAC bei Sumsub, verändern Chatbots längst nicht mehr nur Arbeitsabläufe und Serviceprozesse; sie beeinflussen zunehmend, wie Menschen emotional Bindungen im Netz eingehen. Chai betont, dass moderne Systeme so konzipiert sind, dass sie empathisch reagieren und damit menschliche Nähe simulieren können. Diese Fähigkeit, Emotionen nachzuahmen, verschiebt die Beziehungsebene zwischen Nutzer und Maschine weit über reine Informationsvermittlung hinaus.
Zugleich weist sie darauf hin, dass technische Fortschritte im Bereich Social Engineering und emotionale Manipulation Hand in Hand mit der Verbreitung synthetischer Identitäten gehen. Die Kombination dieser Entwicklungen erhöhe die Wahrscheinlichkeit, dass Nutzer nicht mehr klar zwischen echten Personen und algorithmisch erzeugten Interaktionspartnern unterscheiden könnten. Das Ergebnis sei eine verwirrte digitale Öffentlichkeit, in der Authentizität schwerer zu verifizieren ist.
Daneben warnt Chai vor direkten Folgen für Betrug und Identitätsdelikte: Identitätsbetrug, verbunden mit emotional ausgelegten KI‑Systemen, könne das Vertrauen in digitale Kommunikation nachhaltig untergraben. Solche Systeme könnten gezielt Vertrauen aufbauen, Gefühle auslösen oder ausnutzen und so neue Formen des Missbrauchs ermöglichen. Dadurch entstünden Risiken für Einzelne wie auch für Organisationen, die auf verlässliche Identitätsprüfungen angewiesen sind.
Im Mittelpunkt ihrer Argumentation steht die Forderung nach einer breiten gesellschaftlichen Auseinandersetzung mit den sozialen und sicherheitstechnischen Implikationen dieser Technologien. Es gelte, technische Schutzmechanismen und regulatorische Maßnahmen zu prüfen, um Missbrauchspotenziale zu begrenzen, ohne die Entwicklung nützlicher Anwendungen pauschal zu stoppen. Gleichzeitig ruft sie dazu auf, die wachsende Verwischung von realen und künstlichen Interaktionen als drängendes Thema zu erkennen und in politische wie technologische Lösungen einzubetten.