2024-08-25
Wir stehen der heutigen "künstlichen Intelligenz" ja eher skeptisch gegenüber. Hier geht es um einen Fall, wo "Copilot" (das ist ein LLM von Microsoft, welches auf GPT-4 von OpenAI basiert) einen Gerichtsreporter zu unrecht als Verbrecher darstellt. Die KI war offensichtlich nicht in der Lage, die Fälle, über welche der Mann geschrieben hat, korrekt von seiner Person zu unterscheiden:
The answers shocked Bernklau. Copilot falsely claimed Bernklau had been charged with and convicted of child abuse and exploiting dependents. It also claimed that he had been involved in a dramatic escape from a psychiatric hospital and had exploited grieving women as an unethical mortician.
Wir fühlen uns an den stochastischen Papagei erinnert. Es stellt sich die Frage, ob die Betreiber solcher Dienste für falschen (in diesem Fall womöglich rufschädigenden) Output haftbar gemacht werden können.