Viele Experten warnen seit Jahren, dass die Forschung an der KI (Künstliche Intelligenz) zu gefährlich sei – und der gutgemeinte Willen des technischen Fortschritts ein Schuss nach hinten sein könnte. Nämlich dann, wenn die KI intelligenter ist als der Mensch.
Aber ist das nicht Einbildung? Die KI ist doch nur so schlau, wie die Menschen, die sie programmieren. Zudem stehen die Roboter unter menschlicher Kontrolle. Also alles gut. Oder etwa nicht?
„Noch zu unseren Lebzeiten werden KI-Forscher die Prinzipien der Intelligenz – was sie ist und wie sie funktioniert – so gut verstehen, dass sie Wesen erschaffen können, die weit intelligenter sind als die heutigen Menschen.“, so sagte es Richard Sutton (National Geographic).
Über diese, dem Anschein nach, reale Gefahr gibt es eine Studie der Oxford University. So sei eine „existenzielle Katastrophe nicht nur möglich, sondern auch wahrscheinlich“, so der Hauptautor der Studie Michael K. Cohen.
Mit seiner Meinung ist er bei Weitem nicht der Einzige. Immer wieder warnen Forscher vor der Gefahr von Künstlicher Intelligenz. Einig ist man sich dabei aber nicht. Entgegen der Auffassung vieler ist es jedoch im absoluten Bereich des Möglichen, dass sich eine KI der menschlichen Kontrolle entzieht. Sie braucht nur genug Wissen, unteranderem über den Menschen – uns.
Das wäre das Schlimmste, das uns passieren könnte – der Super-GAU (Größter anzunehmender Unfall) also. Auch ohne den Eintritt dieses Szenarios kann von Künstlicher Intelligenz Gefahr ausgehen. Was wäre, wenn nicht die KI, wie ein eigenes Individuum, ihre Macht gegen uns einsetzt, sondern ein Mensch? Waren wir Menschen nicht schon immer die größte Gefahr für uns selbst? KI könnte ebenso als neue Form einer Waffe wirken. Zwar kein apokalyptisches, aber dennoch erschreckendes Beispiel wäre: Ein Banküberfall geplant durch KI, nachdem diese die Bank und ihre Prozesse ausspioniert hat. So etwas wäre zukünfitg nicht auszuschließen. Abgesehen von dem Szenario, dass eine übermächtige KI, ob von Menschen gesteuert oder aus eigener Hand, uns bekämpft, gibt es auch heute schon Risiken, die von ihr ausgehen. Hier sind zwei Probleme, die uns in unserem Alltag begegnen können:
Zum einen gibt es Deep Fakes, bei denen Videos so geschickt manipuliert werden können, dass die Fälschung nicht als solche erkannt wird. Diese Technologie birgt die Gefahr, dass Politikern oder anderen öffentlichen Personen Worte in den Mund gelegt werden und dadurch die öffentliche Meinung beeinflusst wird.
Zum anderen gibt es Fake News. Das Problem von Fake News ist zwar allgemein bekannt, jedoch wird dieses nun auf eine höhere Ebene gehoben. Ein Beispiel hierfür ist ChatGPT. Das Tool erreichte große Bekanntheit, da es unseren Alltag erleichtert, indem es uns Antworten auf nahezu alles geben kann. Dabei sind die Antworten nicht immer richtig, hinterfragt werden sie aber zu wenig. So kann es als ein Superspreader für Fake News wirken. Außerdem können dadurch Falschinformationen wesentlich schneller und in manchen Fällen sogar wissentlich verbreitet werden.
Was bedeuten all diese Gefahren für uns und was sollte man tun?
Wie die Lösung im Detail aussehen müsste, weiß ich, so wie viele andere, nicht. Einige fordern, dass man KI radikal einschränken sollte, zum Beispiel, indem man Rechenzentren zur Forschung an der KI begrenzt. In den USA gibt es bereits ein Gesetz, das die Möglichkeit nimmt, KI ohne menschliche Erlaubnis eine Atomwaffe abschießen zu lassen (Süddeutsche Zeitung). Die Meistem aber sind der Meinung, dass man sich auf den Lauf der Zeit verlassen sollte. Zudem argumentieren sie, dass KI diverse Vorteile mit sich bringt. Man denke daran, wie KI zukünftig den Wohlstand auf der ganzen Welt verbessern könnte, indem sie Aufgaben der Menschen erleichtert oder erledigt. Letztendlich finde ich aber, dass man trotzdem hinterfragen sollte, ob es sinnvoll ist, dieser Entwicklung – die schneller als erwartet voranschreitet, ohne Einschränkungen und Kontrolle freien Lauf zu lassen.
Autor: Erwin Murnleitner
Das Beitragsbild wurde von der KI Midjourney erstellt.
https://www.nationalgeographic.de/wissenschaft/2022/10/warum-kuenstliche-intelligenz-gefaehrlich-werden-kann
https://www.sueddeutsche.de/wissen/ki-weltherrschaft-kuenstliche-intelligenz-1.5890491