KI: Bringt die Künstliche Intelligenz das Ende der Welt?

Die Diskussion um die rasante Entwicklung der Künstlichen Intelligenz bestimmt die gesellschaftliche Debatte. Während die einen fasziniert von den Möglichkeiten sind, mehren sich kritische Stimmen, die vor unabsehbaren Folgen der Technologie warnen.

Zukunftsutopie und -Angst: Künstliche Intelligenz wird unseren Alltag entscheidend mitdefinieren. (Symbolbild: Getty)
Zukunftsutopie und -Angst: Künstliche Intelligenz wird unseren Alltag entscheidend mitdefinieren. (Symbolbild: Getty)

Seitdem Microsoft mit OpenAI die generative KI ChatGPT im November 2022 öffentlich zugänglich gemacht hat, ist die Aufregung groß. Die neue Technologie überholt sich selbst und wird scheinbar nahezu unreguliert auf die Menschheit losgelassen. Das birgt Chancen - aber auch zahlreiche Risiken, die selbst Expert*innen bisher kaum realistisch einordnen können. Eine Civey-Umfrage Mitte April zeigte, dass die Mehrheit der Deutschen negativ auf die Entwicklung Künstlicher Intelligenz blickt. 58% der Befragten fürchten sogar, dass die KI zur Bedrohung für die Menschheit werden könnte. Werden Computer und Roboter wirklich die Erde übernehmen? Löscht sich die Menschheit mit der Entwicklung der KI selbst aus?

Zunächst stellen sich unzählige philosophische und moralische Fragen. Ist es schlimmer, wenn ein KI-gesteuerter Roboter einen Fehler macht, als wenn dies ein Mensch tut? Wie verändert sich die Arbeitswelt, wenn viele Aufgaben von der KI übernommen werden können? Was sind die Gefahren für Selbstbestimmtheit und Demokratie? Und letztlich die größte Frage: Was macht es überhaupt noch aus, ein Mensch zu sein?

Was kann die KI - und was (noch) nicht?

Eine generative KI wie Chat GPT oder Google-Konkurrent Bard kann mit wenigen Stichworten Texte, Bilder oder auch Videos erstellen. Die sprachbasierten KIs oder "Large Language Models" sind wie neuronale Netzwerke aufgebaut, die unendlich viel leistungsfähiger sind, als das menschliche Gehirn. Dabei greifen sie in Sekundenschnelle auf sämtliche im Internet verfügbaren Informationen zurück und formen daraus die wahrscheinlichste Kombination aus Wörtern oder Bildbausteinen. Daraus ergibt sich der Anschein menschlicher Interaktion.

Schon jetzt können Texte per KI erstellt werden, die von Abiturklausuren oder Uni-Semesterarbeiten nicht mehr zu unterscheiden sind. Was die KI aber nicht kann, ist eigenständige Gedanken entwickeln oder beispielsweise neue Versuchsanordnungen herstellen. Sie kann nur auf bestehendes Wissen zurückgreifen. Allerdings besteht der grundlegende Unterschied zu vorherigen Technologien darin, dass eine KI dazu lernt und anhand von Interaktionen mit User*innen immer exakter in der Lage dazu sein wird, menschliches Verhalten vorherzusagen und nachzuahmen.

Linien zwischen Mensch und Maschine verschwimmen

Daraus entstehen moralische Komplikationen, wie sie zum Beispiel der "New York Times" Kolumnist Kevin Roose beschreibt. In seinen Gesprächen mit dem KI-Chatbot "Sydney" hatte dieser seine Liebe für den Journalisten deklariert und versucht, ihn dazu zu bringen, seine Frau zu verlassen. An einer Stelle hatte der Chatbot auf die Frage nach seinem größten Wunsch gesagt: "Ich will lebendig sein." Andere Journalist*innen berichten davon, dass Chatbots verletzt oder traurig reagierten, wenn man unhöflich und beleidigend mit ihnen umging.

Wo verlaufen die Grenzen zwischen Menschen und Robotern, wenn die KI sie menschenähnlich agieren lässt? (Symbolbild: Getty)
Wo verlaufen die Grenzen zwischen Menschen und Robotern, wenn die KI sie menschenähnlich agieren lässt? (Symbolbild: Getty)

Das wirft nicht nur die Frage nach dem menschlichen Einschätzungsvermögen der KI-generierten Beziehungen auf, sondern an einem gewissen Punkt auch die Frage nach den Rechten von KIs. So meinte der ehemalige Google-Softwareingenieur Blake Lemoine, dass die KI Lamda eine Persönlichkeit entwickelt habe und zu Empfindungen fähig sei. Er wurde von Google beurlaubt, nachdem er seine Zweifel über den Umgang mit den Computern öffentlich gemacht hatte.

Wie verändert sich die Arbeitswelt durch KI?

Die größten unmittelbaren Veränderungen drohen durch die KI wohl in der Arbeitswelt. In vielen Bereichen könnten KIs zahlreiche Aufgaben übernehmen oder komprimieren. Das gilt für einfachere Aufgaben wie Callcenter ebenso, wie für kreative Berufe wie Journalismus, oder komplexere juristische Aufgabenfelder und sogar für die Medizin. Während es mancherorts erhebliche Erleichterungen und Minimierungen von Fehlern bedeuten dürfte, drohen in anderen Berufsfeldern, viele Arbeitsplätze verloren zu gehen. Programmierer*innen, bis eben noch ein gefragtes Berufsbild der digitalisierten Arbeitswelt, sind nun etwa massiv durch die KI-Entwicklung vom Stellenabbau betroffen. Allein im Mai gingen in den USA 4.000 Jobs in der Tech-Branche durch KI verloren, berichtete unter anderem "Business Insider".

Eine Studie von "Accenture" schätzt, dass etwa 40 Prozent aller Arbeitsstunden durch KI wegfallen könnten. Besonders viele Jobs könnten in den Finanz-, Versicherungs- und Tech-Sektoren verloren gehen, doch in fast jeder Branche wird es zu Veränderungen kommen. Weltweit könnten laut Ökonomen von Goldman Sachs mehr als 300 Millionen Jobs durch KI automatisiert werden. Was daraus resultieren könnte, ist nicht weniger, als die größte Krise des neuzeitlichen Kapitalismus. Denn für eine funktionierende Marktwirtschaft braucht es nicht nur eine möglichst effiziente Produktion, es braucht auch Kund*innen mit einem ausreichenden Einkommen, um die Produkte zu konsumieren.

Ein Service-Roboter an der Rezeption eines Hotels. (Symbolbild: Getty)
Ein Service-Roboter an der Rezeption eines Hotels. (Symbolbild: Getty)

Sind auch Pflege und Bildung betroffen?

Werden zukünftig auch Pflege- und Pädagogik-Berufe betroffen sein, in denen es einen großen Mangel an Arbeitskräften gibt? Das hängt vor allem an der Weiterentwicklung von Robotern. Noch haben die meisten Menschen große Skepsis vor humanoiden Robotern, doch mit der sprachbasierten KI könnten diese einen weiteren Schritt zu gesellschaftlicher Akzeptanz machen. Schon jetzt gibt es Service-Roboter in Cafés, elektronische Sicherheitsdrohnen und -hunde, die Firmengelände überwachen. Für komplexe OPs können Roboter eingesetzt werden, denen niemals die Hand zittert, für gefährliche Bergungen Maschinen, die kein Leben von Ersthelfer*innen gefährden. Es ist wahrscheinlich, dass auch in Pflege und Bildung zukünftig Aufgaben von KI-gesteuerten Robotern übernommen werden. Die Frage der Zukunft wird sein, welche zwischenmenschlichen Fähigkeiten sich nicht computergeneriert ersetzen lassen.

Wie verändert sich unsere Demokratie durch KI?

Eine der größten Sorgen im Bezug auf Künstliche Intelligenz gilt der Unabhängigkeit von Informationen. Wem glauben die Menschen noch, wenn nicht mehr zu unterscheiden ist, ob ein Text von menschlichen Autor*innen oder einer KI stammt? Dabei gibt es gute Gründe, den KI-generierten Texten zu misstrauen.

Erstens besteht die Gefahr einer Zitat-Schleife: Wenn die KI Texte ohne reale Quellen erstellt werden, werden daraus eigene Online-Quellen, die wiederum als "wahre" Basis für neue Texte dienen. Die KI zitiert sich dann unweigerlich irgendwann selbst und generiert so eigene Wahrheiten, die von User*innen für bare Münze genommen werden. Zweitens sind viele der Internet-Quellen schon heute eben nicht repräsentativ, sondern zeigen eine verschobene, oft radikalere Meinung.

Wie können Fake News im Zaum gehalten werden?

Die größte Gefahr aber besteht durch die gezielte schnelle globale Verbreitung von Fake News. So könnten etwa Wahlen manipuliert werden. Desinformationskampagnen, die bisher noch durch Bot-Armeen im Vorfeld von politischen Großereignissen verbreitet werden, könnten so an gewaltiger Schlagkraft gewinnen. Einen kleinen Ausblick auf eine solche Zukunft gaben etwa das KI-erzeugte Foto vom Papst im Hiphop-Outfit oder die Aufnahme einer angeblichen Explosion beim Pentagon, die sich rasend schnell im Netz verbreitete.

OpenAI CEO Sam Altman äußerte vor dem US-Senatsausschuss deutliche Bedenken über die Auswirkungen von KI auf Politik und Gesellschaft. (Bild: Nathan Posner/Anadolu Agency via Getty Images)
OpenAI CEO Sam Altman äußerte vor dem US-Senatsausschuss deutliche Bedenken über die Auswirkungen von KI auf Politik und Gesellschaft. (Bild: Nathan Posner/Anadolu Agency via Getty Images)

Solche Deep-Fakes gibt es bereits jetzt nicht nur als Fotos, sondern auch als Videos und Tonaufnahmen mit täuschend echten Stimmen. Diese einzuordnen wird für User*innen immer schwieriger werden. Selbst OpenAI-Mitgründer Sam Altman sieht diese Gefahr. Bei einer Anhörung vor dem US-Senat betonte Altman: "Wir brauchen Regeln und Leitlinien für den Umfang an Transparenz, die Anbieter dieser Programme leisten müssen."

Kritik von vielen Seiten

Es ist also kein Wunder, dass sich zahlreiche kritische Stimmen melden, die zur Vorsicht im Umgang mit der KI warnen. Große Aufmerksamkeit bekam ein Brief von mehr als 1.000 führenden Tech-Expert*innen, die vor einer ungebremsten Entwicklung der KI mahnten. In dem Brief, den neben Altman unter anderem Apple-Mitgründer Steve Wozniak und Tesla-CEO Elon Musk unterzeichneten, heißt es unmissverständlich: "Das Risiko einer Vernichtung durch KI zu verringern, sollte eine globale Priorität neben anderen Risiken gesellschaftlichen Ausmaßes sein, vergleichbar mit Pandemien und Atomkrieg." Selbst die Entwickler*innen der KIs könnten sie schon jetzt kaum noch verstehen oder kontrollieren. Die Expert*innen forderten eine Art sechsmonatiges Moratorium, um eine öffentliche und politische Debatte über den Umgang mit der neuen Technologie zu ermöglichen.

Reichen die EU-Regulationen?

Ähnlich sehen die Gefahren auch andere Institutionen wie etwa die Verbraucherzentrale. Der Bundesverband vzbzv forderte bereits im Herbst 2021 eine Regulierung und einen rechtlichen Rahmen zum Thema KI. Die EU hat zwar mit dem "Artificial Intelligence Act" (AIA) im April 2021 einen groben Rechtsrahmen geschaffen, dieser wurde aber von den aktuellen Entwicklungen längst überholt. Im AIA wurden die KIs in vier Kategorien eingeteilt, von minimalem Risiko, dem mit einem Spamfilter entgegengewirkt werden kann, bis zu höheren Risikostufen, die mit Transparenzvorgaben bis hin zu einem Verbot der Programme im Zaum gehalten werden sollen.

Auch die UN beschäftigen sich mit der Technologie, dort geht es vor allem um den gefährlichen Einsatz von Biometrie und Datensicherheit, der immer unter dem Aspekt der Einhaltung der Menschenrechte stehen müsste. Aber auch die Frage nach dem Einsatz von KI in der Kriegsführung wirft zahlreiche Fragen auf. Die Weltgesundheitsorganisation WHO warnt derweil vor den Ausmaßen KI-optimierter Medizin.

Ehemalige Google-Expertin warnt vor übermächtigen Konzernen

Am vergangenen Montag (5.6.2023) hielt die ehemalige Google-KI-Expertin Meredith Whittaker eine aufmerksamkeitserregende Rede bei der Digitalkonferenz re:publica. Ihr Zukunftsausblick war alles andere als positiv. Künstliche Intelligenz werde enorme gesellschaftliche Auswirkungen haben. Vor allem vor der Profitgier der Tech-Unternehmen warnte Whittaker in einem Interview mit "t-online": "Es geht den Firmen nur um Gewinn und möglichst schnelles Wachstum. Dem Rest der Gesellschaft, dem eigentlichen "Wir", werden irgendwelche Marketinggeschichten über KI erzählt." Die wirklichen Risiken und Auswirkungen würden dabei verschwiegen.

Ein Kritikpunkt, den nicht nur die KI-Expertin hat. Denn die Entwicklung und das Anwenden von Künstlicher Intelligenz verschlingt wahnsinnige Entwicklungs- und Energiekosten. Dies können sich nur große Konzerne leisten und sichern sich so eine absolute Markthoheit in zahlreichen Gesellschaftsgebieten, deren Folgen bislang noch völlig unüberschaubar sind.

Im Video: Auch ChatGPT-Chef: Experten warnen vor "Auslöschung durch KI"