6. Datenschutz & Security
Die Trainingsdaten für KI-Modelle fallen nicht aus dem Himmel, sondern müssen aggregiert werden. Dabei können auch Daten in den neuronalen Netzwerken hängenbleiben, die das nicht sollten - persönliche Informationen zum Beispiel.
Erschwerend kommt hinzu, dass es wegen ihrer flexiblen Natur komplex ist, den Datenbankzugriff für KI-Systeme zu sperren. Eine relationale Datenbank kann den Zugriff auf eine bestimmte Tabelle mit persönlichen Daten beschränken. Eine KI kann jedoch auf Dutzende von verschiedenen Arten abgefragt werden. Angreifer dürften schnell lernen, wie sie die richtigen Fragen auf die richtige Weise stellen, um an sensible Daten zu gelangen. Einer KI Datenschutz beizubringen, ist etwas, das wir noch nicht verstehen.
Davon abgesehen machen sich kriminelle Hacker Generative-AI-Tools bereits für diverse Zwecke zunutze, wie zum Beispiel ein Blogbeitrag von Check Point Research aufzeigt.
7. Unerkannter Bias
Dass Verzerrungen und Bias in KI-Modellen ein Problem sind, ist nichts Neues. Schon die ersten Mainframe-Entwickler erkannten den Kern des Problems, als sie das Akronym GIGO ("Garbage in, garbage out") prägten. Viele KI-Probleme sind auf unzureichende Trainingsdaten zurückzuführen: Wenn die Datensätze inakkurat oder mit Bias behaftet sind, spiegelt sich das in den Ergebnissen wider.
Die Hardware, der Kern der generativen KI, mag logisch funktionieren - seine menschlichen Erschaffer allerdings nicht. Vielleicht hat jemand bei der Modellerstellung den Bias hineingebracht, vielleicht wurden auch Überschreibungen hinzugefügt, um das Modell daran zu hindern, auf bestimmte brisante Fragen zu antworten. Der Mensch hat viele Wege gefunden, um sicherzustellen, die künstliche Intelligenz zu einem vorzüglichen Vehikel für schädliche und destruktive Überzeugungen zu machen.
8. Maschinendummheit
KI-Modellen Fehler zu verzeihen, fällt wegen ihrer Vorzüge allzu leicht. Allerdings sind diese Fehler in vielen Fällen schwer vorherzusehen, weil KIs anders "denken" als Menschen. Viele User von Text-to-Image-Tools haben zum Beispiel festgestellt, dass Künstliche Intelligenz ganz simple Dinge nicht richtig kann, etwa zu zählen.
@OpenAI So #ChatGPT cannot generate Super Bowl squares for 9 people correctly. It leaves 2 of them empty!!#ChatGPT seems to be good at writing essays, but fails at basic maths! Maybe I should use a calculator!! pic.twitter.com/EnqrlhOKlV
— Manish (@mb0thra) February 12, 2023
Im Gegensatz zum Menschen neigt die aktuelle KI-Generation dazu, bei der abstrakten und kontextbezogenen Anwendung von Mathematik zu versagen. Das könnte sich künftig ändern, wenn die Modellarchitekten diesem Versäumnis etwas Aufmerksamkeit widmen. Es ist allerdings damit zu rechnen, dass weitere Versäumnisse folgen werden. Die maschinelle Intelligenz unterscheidet sich von der menschlichen - ebenso verhält es sich mit der Dummheit.
9. Menschliche Leichtgläubigkeit
Wenn eine Behauptung mit Zuversicht aufgestellt wird, neigt der menschliche Verstand dazu, sie als wahr und richtig zu akzeptieren. Gibt die KI aus, dass Heinrich VIII. seine Ehefrauen getötet hat, stellen viele User das gar nicht erst in Frage. Sie gehen davon aus, dass die KI richtig liegt.
Ein wesentliches Problem für die Nutzer von Generative-AI-Tools besteht folglich darin, zu erkennen, wann die KI falsch liegt. Maschineninstanzen lügen nicht wie Menschen, was sie allerdings nur noch gefährlicher macht: Sie können seitenweise völlig korrekte Daten ausgeben, nur um plötzlich in Unsinn, Spekulationen oder gar Verschwörungstheorien abzuschweifen.
Thanks ChatGPT, learnt something today. #ChatGPT #fail pic.twitter.com/fGKCsxOhNS
— Sébastien B (@oktapodia) February 13, 2023
10. Unendliche Fülle
Digitale Inhalte sind unendlich reproduzierbar. Das hat schon einige Geschäftsmodelle, die auf Verknappung aufbauten, erschüttert. Generative AI wird diese Entwicklung noch verstärken. Sie hat auch das Potenzial, Kreativarbeiter in einigen Bereichen zu verdrängen. Daraus ergeben sich für die Zukunft diverse Fragen. Etwa:
Werden werbegestützte Inhalte noch funktionieren, wenn sie endlos neu kombiniert werden können?
Wird sich der freie Teil des Internets in ein Bot-Moloch mit unendlich reproduzierbaren Inhalten verwandeln?
Wenn Kunst zu stets reproduzierbarer Massenware wird, wird sie dann noch als etwas Besonderes respektiert werden?
Könnte alles an Wert verlieren, wenn es als selbstverständlich angesehen wird?
Wir haben bewusst davon abgesehen, ChatGPT oder Bard diese Fragen zu stellen. (fm)
Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld.