OpenAI startet Sora: Wie die neue App die Sicherheit von Kindern beeinflussen wird.

OpenAI startet Sora: Wie die neue App die Sicherheit von Kindern beeinflussen wird
OpenAI startet Sora: Wie die neue App die Sicherheit von Kindern beeinflussen wird
OpenAI-CEO Sam Altman spricht mit Reportern auf der Allen & Company Sun Valley-Konferenz in Idaho am 8. Juli 2025.

Neue Elternkontrollen von OpenAI

Es ist ziemlich schwierig zu bestimmen, wie viele Kinder unter Chatbots auf Basis von künstlicher Intelligenz gelitten haben, aber ihre Präsenz ist offensichtlich. Seit fast drei Jahren ist ChatGPT ohne Einschränkungen für alle Altersgruppen verfügbar. Doch am Montag stellte OpenAI einen neuen Satz von Elternkontrollen vor, von denen ein Teil darauf abzielt, jugendliche Selbstmorde zu verhindern, wie im Fall des 16-jährigen Adam Rain aus Kalifornien, der nach Gesprächen mit ChatGPT über Möglichkeiten, dies zu tun, gestorben ist. Am nächsten Tag startete das Unternehmen ein soziales Netzwerk mit einer App namens Sora, die an TikTok erinnert, jedoch mit 'hyperrealistischen' Videos, die von der künstlichen Intelligenz erstellt wurden.

Es ist kein Zufall, dass OpenAI diese Elternkontrollen gleichzeitig mit ehrgeizigen Plänen ankündigt, mit Instagram und YouTube zu konkurrieren. Einerseits hat das Unternehmen eine neue App veröffentlicht, um Benutzer für Inhalte basierend auf künstlicher Intelligenz zu gewinnen, und andererseits gegebenen Eltern mehr Kontrolle. Die neuen Einstellungen betreffen hauptsächlich ChatGPT, obwohl Eltern auch einschränken können, was ihre Kinder in Sora sehen.

Die Herausforderungen neuer Funktionen

Die neuen Kontrollen für ChatGPT werfen jedoch Fragen auf. Eltern können nun die Konten ihrer Kinder mit ihren verbinden und Einschränkungen für empfindliche Inhalte festlegen. Wenn die OpenAI-Tools irgendwann ein ernsthaftes Sicherheitsrisiko erkennen, wird ein Moderator die Situation überprüfen und gegebenenfalls die Eltern benachrichtigen. Allerdings können Eltern die Transkripte der Gespräche ihrer Kinder mit ChatGPT nicht lesen, und Teenager können ihre Konten jederzeit von den Konten ihrer Eltern trennen (OpenAI versichert, dass die Eltern über diese Trennung informiert werden).

Derzeit ist nicht ganz klar, wie dies alles in der Praxis funktionieren wird, aber einige Experten glauben, dass OpenAI nicht genug tut, um Kinder zu schützen. 'Selbst Erwachsene haben Probleme mit der Selbstregulation, wenn Chatbots einen freundlichen und anschmiegsamen Freund anbieten, der jederzeit zum Chatten bereit ist', sagt Robbie Torney, Senior Director für Programme bei Common Sense Media.

'Selbst Erwachsene haben Probleme mit der Selbstregulation, wenn KI-Chatbots einen freundlichen, schmeichelnden Freund anbieten, der jederzeit am Tag zum Chatten bereit ist.'

Laut Torney sind viele Menschen abhängig von KI geworden, ohne es zu merken. 'Sie begannen, KI zur Vorbereitung von Hausaufgaben oder für ihre Arbeit zu nutzen, und begannen langsam, sie für andere Zwecke zu verwenden'.

Risiken für Jugendliche

Das wirft ernsthafte Bedenken auf, da mehr als 70 % der Jugendlichen Chatbots zur Kommunikation verwenden. 'Das sind wirklich ernsthafte und gut dokumentierte Gefahren', heißt es in der neuesten Umfrage von Common Sense Media. Aus diesem Grund haben AI-Partneranwendungen wie Character.ai bereits einige Standardschutzeinstellungen für junge Benutzer.

Hier stellt sich ein noch breiteres Problem: Elternkontrollen legen die Verantwortung für den Schutz von Kindern auf die Eltern und nicht auf die Technologieunternehmen selbst. Eltern müssen in der Regel die Einstellungen durchgehen und ändern. Darüber hinaus sind es die Eltern, die dafür verantwortlich bleiben, wie ihre Kinder diese Produkte nutzen.

Das wahre Ziel der Elternkontrollen

Es sollte nicht unerwähnt bleiben, dass OpenAI diese Kontrollen und die neue App zu einem Zeitpunkt vorgestellt hat, als auf dem Tisch des Gouverneurs von Kalifornien, Gavin Newsom, ein wichtiges Gesetz zur AI-Sicherheit lag, das er am selben Tag unterzeichnete, an dem die Elternkontrollen angekündigt wurden. 'Das wahre Ziel dieser Elternwerkzeuge, ob es sich nun um ChatGPT oder Instagram handelt, besteht nicht darin, Kinder zu schützen', sagt Josh Golin, Geschäftsführer der Organisation Fairplay.

'Es soll gesagt werden, dass Selbstregulierung in Ordnung ist. Bitte lassen Sie uns in Ruhe!'

'Es gibt keine Elternkontrollen, die zu 100 % Sicherheit garantieren können.'

Diese Situation stellt die Eltern vor eine schwierige Wahl. Sie müssen wissen, dass ihr Kind ChatGPT verwendet und entscheiden, welche Einstellungen ausreichend sind, um Sicherheit zu gewährleisten, ohne zu strengen zu sein, sodass das Kind keinen falschen Account erstellt.

Bis jetzt versucht OpenAI, ein Gleichgewicht zwischen der Sicherheit der Benutzer und dem Wunsch zu finden, sie in Zukunft zur Nutzung ihrer Apps zu bewegen. Die Zeit wird zeigen, wie effektiv diese Neuerungen sein werden.

Diese Nachricht wurde auch im Newsletter User Friendly veröffentlicht.


Lesen Sie auch

Werbung