Doch schon jetzt gibt’s richtig viel Probleme und der Bot ist außer Kontrolle geraten. So hatte der Chatbot gegenüber einem Report der „New York Times“ behauptet, dass er den Journalisten liebt. Außerdem riet ihm die KI sich von seiner Frau zu trennen. Auch für einen Philosophieprofessor wurde es unangenehm. Ihm drohte der Bot ihn zu erpressen und zu ruinieren. Doch damit nicht genug: Es gab noch weitere Unterhaltungen, die Nutzer als übergriffig und unangemessen empfunden haben.
Microsoft verpasst Chatbot Maulkorb
Microsoft hat jetzt auf die Kritik und die Vorfälle reagiert und den Chatbot deutlich eingeschränkt: Ab sofort sollen die Bing-Chats auf 50 Fragen pro Tag und fünf pro Sitzung begrenzt werden. Gleichzeitig sagt Microsoft aber auch, dass sich der KI-Chatbot noch in der Testphase befinde und bei längeren Konversationen Fehler auftreten könnten. Microsoft und Google liefern sich gerade ein ordentliches Battle um die Vorherrschaft in der KI-gestützten Internetsuche.