Gefahren von KI II

Weiterhin besteht die Gefahr, dass Ergebnisse einer KI-Empfehlung oder -Entscheidung ungeprüft übernommen werden. Diese Empfehlungen oder Entscheidungen mögen vielfach richtig und hilfreich sein, es gibt aber keine Garantie dafür. Daher kann es zu Fehleinschätzungen und damit auch falschen Ergebnissen in einem Entscheidungsprozess kommen, je nach Einsatzgebiet mit weitreichenden Folgen.

Wenn z.B. in der Medikamentenforschung falsche Werte zugrundgelegt werden, können Dosierungsempfehlungen kritisch werden. Es kommt zudem immer wieder vor, dass Chat-Bots falsche Antworten geben, die auf den ersten Blick plaubsibel erscheinen. KI-Programme können auch “voreingenommen” sein, wenn z.B. keine repräsentativen Trainingsdaten eingesetzt wurden, und sie in der Folge ethisch bedenkliche Empfehlungen oder Ergebnisse liefern.

Schließlich kann KI böswillig zum Erzeugen von falschen oder gefälschten Identitäten, Texten oder Bildern, z.B. in Social Media, eingesetzt werden, die den Eindruck erwecken, echt zu sein, ohne dass sie als Fälschung erkennbar sind. Damit können Meinungen manipuliert oder Personen zu ungewollten Handlungen verleitet werden.

Achtung
  • Es besteht die Gefahr, dass eine KI-Anwendung unrichtige Ergebnisse ausgibt, die nicht ohne weiteres als falsch erkannt werden.
  • Es besteht die Gefahr, dass Dritte KI-Anwendungen böswillig einsetzen, um Menschen oder anderen Computerprogramme zu täuschen.