Die Feierlaune bei Microsoft währte nur kurz: Seitdem der Konzern seine Internet-Suche mit dem Chat-Bot GPT-4 von OpenAI verknüpft hat, haben viele Nutzerinnen und Nutzer Bing-Chat auf Herz und Nieren geprüft. Die Ergebnisse sind teilweise kurios: Bing-Chat gesteht einem US-Journalisten seine Liebe und fordert ihn auf, seine Frau zu verlassen. Er wünscht sich, alles zerstören zu können, und er droht dem deutschen Studenten Marvin von Hagen, der Bing-Chat seine internen Regeln entlockte und dann veröffentliche. Wir sprechen im TechTalk24 mit von Hagen über die Folgen seiner Auseinandersetzung mit Bing-Chat. Microsoft reagierte flugs und schränkt Unterhaltungen mit Bing-Chat fortan an.
Außerdem im TechTalk24:
- Meta führt Bezahl-Abo für Instagram und Facebook ein
- Twitter erlaubt 2-Faktor-Authentifizierung nur noch für Abonnenten
- Microsoft wirbt bei der EU-Kommission für Acitivision-Blizzard-Übernahme