Künstliche Intelligenz
ChatGPT soll Erotik-Funktion bekommen
Sexy ChatGPT? Laut dem Chef der Entwicklerfirma OpenAI soll es bis Jahresende auch Erotik vom Chatbot geben. Details sind noch unklar.
dpa
Mi, 15. Okt 2025, 2:20 Uhr
Netzwelt
Wir benötigen Ihre Zustimmung um BotTalk anzuzeigen
Unter Umständen sammelt BotTalk personenbezogene Daten für eigene Zwecke und verarbeitet diese in einem Land mit nach EU-Standards nicht ausreichenden Datenschutzniveau.
Durch Klick auf "Akzeptieren" geben Sie Ihre Einwilligung für die Datenübermittlung, die Sie jederzeit über Cookie-Einstellungen widerrufen können.
AkzeptierenMehr Informationen

Quelle: Deutsche Presse-Agentur (dpa).
Die BZ-Redaktion hat diese Meldung nicht redaktionell bearbeitet.
San Francisco (dpa) - Der KI-Chatbot ChatGPT soll erwachsenen Nutzern bald auch Erotik bieten können. Der Chef der Entwicklerfirma OpenAI, Sam Altman, kündigte das ohne nähere Details voraussichtlich für Dezember an. Nutzer würden dafür ihr Alter verifizieren müssen und die Funktion werde nur auf Wunsch verfügbar sein, betonte er zugleich in einem Beitrag auf der Online-Plattform X.
Rivale Elon Musk bietet bei seinem Chatbot Grok schon seit einiger Zeit sexualisierte Inhalte inklusive eines leicht bekleideten animierten Avatars an. Auch bei kleineren Anbietern gibt es Erotik-Chatbots. Zu OpenAI gehört auch die Software Sora, die Video aus Text-Vorgaben erzeugen kann.
Hohe Kosten - und unklares Geschäftsmodell
ChatGPT löste vor rund drei Jahren den aktuellen KI-Hype aus und gilt als der populärste Chatbot mit inzwischen rund 800 Millionen Nutzern pro Woche. Allerdings gibt es nach wie vor Fragezeichen rund um das Geschäftsmodell bei Künstlicher Intelligenz. Entwickler wie OpenAI oder der Facebook-Konzern Meta sind dabei, hunderte Milliarden Dollar in Rechenzentren zu investieren - es ist aber nicht gesichert, dass sich das rentiert. Daher suchen die Anbieter nach Wegen, mit KI-Funktionen Geld zu verdienen.
OpenAI wird Nutzern auch die Möglichkeit geben, den Charakter von ChatGPT stärker zu beeinflussen, damit die Software zum Beispiel "wie ein Freund" agieren kann. Hintergrund ist, dass einige eine frühere Version vermissen, die ihnen mehr Zustimmung gab. Ein Problem war damals, dass die Software auch potenziell schädliches oder riskantes Verhalten befürwortete. Dagegen gibt es laut OpenAI nun Vorkehrungen.
© dpa-infocom, dpa:251015-930-163323/1