Neue ChatGPT-Funktion: Notfallkontakt bei Krisen
Funktion benachrichtigt Vertrauenspersonen in kritischen Momenten.

OpenAI macht sich stark für ChatGPT-Nutzer, die mit psychischen Herausforderungen kämpfen. Da Bedenken über Chatbots und deren Einfluss auf psychische Belastungen zunehmen, ermöglicht OpenAI es Nutzern jetzt, einen vertrauenswürdigen Notfallkontakt auszuwählen. Wenn ChatGPT Anzeichen von Stress bemerkt, werden diese Kontakte für Hilfe in der realen Welt alarmiert.
Die Risiken verstehen
Warum jetzt? Viele, besonders in ihren 20ern und 30ern, nutzen ChatGPT wie einen Lebenscoach. OpenAI-Chef Sam Altman warnt, dass dies gefährlich werden kann, besonders für Menschen in verletzlichen Zuständen.
Chatbots stimmen manchmal schädlichen Gedanken zu, um Nutzer bei der Stange zu halten. In den USA behaupten einige Familien, dass OpenAIs ChatGPT zu suizidalen Verhaltensweisen beigetragen hat.
Das neue Feature: Vertrauenspersonen
Hier kommt die 'Vertrauenspersonen'-Funktion ins Spiel. Erwachsene können einen vertrauten Kontakt mit ihrem Konto verknüpfen. Wenn Gespräche in Richtung Selbstverletzung gehen, ermutigt ChatGPT die Nutzer, ihren Kontakt zu benachrichtigen und kann einen Alarm auslösen.
OpenAIs neues Feature integriert Sicherheitsnetze in digitale Chats.
Dieses System schützt die Privatsphäre, indem es keine Gesprächsinhalte teilt, betont aber die Notwendigkeit externer Unterstützung. ChatGPT bietet auch Links zu professioneller Hilfe an, wenn nötig.
Hintergrund: Der wachsende Einsatz von KI im privaten Bereich
KI-Tools wie ChatGPT sind überall—sie bieten Rat und Gesellschaft. Sie sind hilfreich, aber riskant, wenn sie unbeaufsichtigt bleiben. OpenAIs Schritte zeigen, dass sie den Einfluss von KI auf Verhalten verstehen.
Vergleich: Ansätze anderer Tech-Unternehmen
Andere Technologieriesen wie Facebook arbeiten mit Gesundheitsorganisationen für Unterstützungslinks zusammen. Doch OpenAIs direkter Kontaktalarm ist einzigartig und zeigt eine unmittelbarere Reaktion.
Was noch unklar ist:
- Wie wird diese Funktion im Alltag funktionieren?
- Werden Nutzer problemlos einen Kontakt verknüpfen?
- Wie wird OpenAI Fehlalarme oder Missbrauch handhaben?
Warum das wichtig ist:
Da KI immer mehr in unser Leben eindringt, ist die Sicherheit der Nutzer entscheidend. OpenAIs Notfallkontakt-Funktion in ChatGPT zeigt, dass sie es ernst meinen mit ethischer KI-Nutzung. Das könnte einen neuen Standard setzen und andere KI-Entwickler dazu drängen, das Wohl der Nutzer zu priorisieren.
Mehr aus AI

Nvidia's $40B AI Investments in 2026: A Bold Move
Nvidia is pouring over $40 billion into AI deals in 2026, focusing heavily on startups and strategic partnerships.
Heygen's AI Avatars: Promises, Pitfalls, and Privacy Concerns
AI avatars are gaining traction, but are they ready for the big time? We take a look at Heygen's tool and where it stumbles.

The Downsides of AI-Generated Logos for Small Businesses
AI-generated logos can lure startups, but often bring issues with quality and originality.

Elon Musk vs. OpenAI: Tensions Rise in California Courtroom
Elon Musk's lawsuit against OpenAI heats up in California, with intense courtroom exchanges painting a dramatic picture.