ChatGPT: Bing-Suchmaschine beleidigt User

0

Früher Testlauf des integrierten KI-Chatbot in Bing ruft Irritationen hervor. Die Suchmaschine beleidigt u.a. die Nutzer. Kommt Microsoft der „gespaltenen Persönlichkeit“ bei? Moralisch zweifelhaft ist nicht nur das Verhalten der KI in Bing, manch einer mag das gleiche über Bewerbungsanschreiben mit Hilfe von ChatGPT denken.

Chatbot Replika in Italien untersagt

Der Chatbot Replika wurde in Italien von der Datenschutzbehörde untersagt und der US-Entwicklungsfirma Luka vorerst verboten, persönliche Informationen von Nutzern des Landes zu verarbeiten. Als empathischer „virtueller Freund“ gedacht, darf Replika in Italien seine Dienste nicht mehr anbieten. Die Begründung: Die KI-basierte Anwendung berge zu viele Risiken für psychisch labile Menschen und Minderjährige. So seien Antworten teils „ungeeignet“. Für das von OpenAI entwickelte Sprachmodell GPT-3 war Luka ein früher Partner.

ChatGPT unterstützt kolumbianischen Richter

Ein kolumbianischer Richter hat sich bei der Verfassung eines Urteils von dem KI-Textgenerator ChatGPT helfen lassen. Ein Radiosender berichtet, dass Juan Manuel Padilla das Werkzeug verwendet hat, um zu begründen warum die medizinischen Kosten eines autistischen Kindes von der Versicherung getragen werden müssen. Das Tool habe damit eine Arbeit übernommen, die sonst ein Sekretär übernimmt. Padilla ist der Überzeugung, dass eine KI wie ChatGPT dabei hilft „sehr verständliche Sätze mit guten Formulierungen“ zu verfassen. Dieser Rückgriff auf die KI mache Richter nicht faul, sondern helfe dabei, Infos aus dem Internet zu transkribieren und logisch zusammenzufassen.

Wasserzeichen im Kampf gegen KI-Plagiate

KI-Technologien wie ChatGPT werden immer ausgefeilter. Dies erschwert es Lehrkörpern, Plagiate aufzudecken. In Wasserzeichen sieht man die Lösung. Sie sind für das menschliche Auge nicht sichtbar, aber helfen dem Computer, algorithmisch erzeugte Texte von menschlichen zu unterscheiden. Schüler und Studenten haben die Vorteile des Chatbots längst für sich entdeckt und missbrauchen die KI für Hausarbeiten und Aufsätze. In universitären Experimenten wurde die Integration von Wasserzeichen in KI-Systeme bereits eingesetzt, um entsprechend erzeugte Inhalte mit hoher Sicherheit zu identifizieren.

Bing nun mit KI agiert passiv-aggressiv

Suchmaschine Bing von Microsoft wurde mit einem KI-Chatbot ausgestattet. Nutzer, die an einem frühen Testlauf teilnehmen, zeigen sich irritiert. Die Software offenbart passive Aggressivität, und es wird ihr sogar eine „gespaltene Persönlichkeit“ zugesagt. Sie soll Nutzer beleidigen, Falschinfos streuen, manipulieren und sogar Liebesgeständnisse machen. Daneben übernimmt sie durchaus die Rolle einer freundlichen Suchassistenz. Auch hier ist aber Achtsamkeit wichtig. Die Aussagen sind nicht immer richtig. So behauptete der Chatbot, dass wir uns im Jahr 2022 befinden. Eine Korrektur des Nutzers nahm die KI nicht gut auf und reagierte beleidigend. Es muss jedoch gesagt werden, dass einige Nutzer gezielt die Grenzen der KI getestet und die Unterhaltung absichtlich aus der Komfortzone gelenkt haben.

Bewerbung mit Hilfe von KI – moralisch erlaubt?

Dank KI ist es mittlerweile leicht, eine gute Bewerbung zu schreiben. Mehrere Journalisten haben den Chatbot bereits genutzt, um zu ermitteln wie die künstlich generierten Anschreiben auf Personaler wirken. Nahezu alle der fiktiven Kandidaten hätten den Job bekommen. Es gibt jedoch auch Kritik. Dem Bewerbungsschreiben fehlt Individualität bzw. Persönlichkeit. KI tut sich mit Emotionen schwer, Fakten fallen ihr leicht. Man könnte zudem die Hilfe der KI in der Angelegenheit als moralisch fragwürdig erachten. Auf der anderen Seite macht es Menschen das Leben leichter, die z.B. eher technisch orientiert sind und sich im Texten schwertun. Für Reinhard Scharff, Geschäftsführer der Personalagentur „Die Stellenbesetzer“, sind Bewerbungen von ChatGPT kein Ausschlusskriterium. Er sagt: „Wir werden damit leben lernen und arbeiten müssen.“

Lassen Sie eine Antwort hier