Selbst die Erfinder und Hauptentwickler von KI-Systemen warnen vor ihrer KI und fordern, zumindest für sechs Monate, einen Entwicklungsstopp. Wovor haben sie solche Angst? Ist KI wirklich der Untergang der Menschheit? Oder haben sie nur zu viele Filme wie “Matrix” und “Terminator” gesehen? Worin liegt die Gefahr bei KI, insbesondere bei den aktuellen Modellen? Und wie kann man diesen Gefahren begegnen? Darüber möchte ich heute schreiben.
Jeder, der sich von ChatGPT schon mal Texte hat erstellen lassen, weiß, wie viel Zeit man dadurch sparen kann und wie gut die Texte letztlich sind. Würde man selbst sonst viele Stunden mit dem erstellen solcher Texte verbringen, kann man die Texte hier fast direkt raus kopieren und weiter verwenden. Man benötigt eventuell noch ein klein wenig Zeit um sie an zu passen oder zum übersetzen und bebildern mit anderen KI Tools. Aber ist das wirklich gefährlich? Und inwiefern könnte von einer solchen KI eine Gefahr ausgehen? Man könnte doch einfach aufhören, den Dienst zu nutzen, oder?
Wo liegt das Problem?
Das Problem liegt darin, dass wir eigentlich nicht von den aktuellen KIs sprechen. Mit jeder Entwicklungsstufe werden die KIs mächtiger, so zumindest die eindeutige Meinung. Mit jeder Anwendung, die über eine KI gesteuert wird, entsteht ein weiterer Punkt, über den wir selbst die Kontrolle abgeben. Ich denke, es geht schon lange nicht mehr nur darum, ob KI uns allen die Jobs wegnehmen wird. Diese Gefahr ist zwar immer noch real, aber nicht mehr das, was vielen Angst macht. Tatsächlich geht die negative Erwartung schon eher in die Richtung, wie sie die beiden Filme “Matrix” und “Terminator” vielleicht in unseren Köpfen gepflanzt haben.
Der Kern der Angst ist meiner Meinung nach, dass wir alle wissen, dass unser Wissen begrenzt ist. Wir sind unvollkommen und können nicht so schnell lernen wie KI-Systeme. Gleichzeitig gehen wir davon aus, dass auch wir nicht besonders “gut” sind. Wir haben Angst, dass eine Maschine, die rein auf Logik basiert, uns eines Tages für überflüssig oder schlimmer noch, für das hält, was wir tatsächlich sind, die größte Plage, die unser Planet je gesehen hat.
Mal Angenommen, daß….
Ich möchte einmal kurz auch in dieses Denkmuster gehen. Ich denke auch, wir sollten uns als Menschen deutlich schneller weiterentwickeln, als wir das tun. Nicht die technischen Dinge, wie z.B. die KI, sondern unsere menschlichen Seiten. Ich rede von Empathie, Mitgefühl, Mitleid, Demut vor der Natur, der Schöpfung, wenn man so will. Liebe unter Menschen, Freundschaft, Hilfe für alle, denen es nicht so gut geht. All das sind Dinge, die wir immer nur durch neue Technik und schnellere Entwicklung in Naturwissenschaft und Medizin oder Ähnlichem verbessern wollen. Ganz selten setzen wir bei uns selbst an, also beim Menschen und unserem Sein selbst.
Wir sind als Einzelne unfähig, immer alles “richtig” zu machen. Wenn ich etwas will, nehme ich es automatisch jemand anderem weg, da Dinge und Ressourcen nun mal begrenzt sind. Aber stimmt das wirklich? Vielleicht nehme ich ja niemandem etwas weg, weil andere sowieso kein Interesse an diesem Angebot hatten? Auch das soll es geben und wird leicht sichtbar, wenn wir sehen, wie viele Lebensmittel bereits im Supermarkt bei uns verderben.
Überfluss und doch Ohnmacht
Wir haben den Luxus des Überflusses und trotzdem das schlechte Gewissen, gerade weil dieser Überfluss besteht. Jetzt ist es aber so, wir haben diesen Überfluss in der Form ja meist gar nicht selbst hergestellt. Wir nutzen ihn nur. Er wurde uns also von anderen gegeben oder sagen wir bereitgestellt. Es ist also gar nicht unser Überfluss. Warum sollte es dann unsere Schuld sein, wenn er anderen Menschen etwas wegnimmt? Es geht also gar nicht darum, den Überfluss zu beenden, es geht darum, alles besser zu verteilen. Und da sehe ich bei der KI eine riesige Chance.
Trotzdem fühlen wir uns oft Ohnmächtig gegenüber solcher großen Systeme, dem Staat, der allgemeinen Weltwirtschaft, die unsere Inflation in die Höhe treibt und die unser Leben schwieriger macht. Es sieht immer wieder so aus, als können wir einzelne gar nichts ausrichten in diesen Systemen von “wenn, dann ”-Schleifen und wir müssen abliefern sonst fallen wir zurück im Wettrennen um den Sieg. Die Frage ist doch, was ist der Sieg? Wie soll ein Gewinn des Spiels am Ende aussehen? Ist das ein riesiges Monopoly und am Ende gewinnt einer und alle anderen verlieren?
Böse KI, oder doch eher böser Bediener von KI?
Nun, ich denke, die größte Gefahr geht, nach wie vor, nicht von der KI selbst aus. Sie geht von den Menschen aus. Von den Menschen, die KI in einer Weise nutzen werden, die anderen Menschen schaden wird. Ob das jetzt selbstfliegende Drohnen sind, die Menschen töten, wie im Ukrainekrieg bereits jetzt, oder ob das auf ganz andere Arten passieren wird. Ich denke, es wird viel subtiler sein, viel mehr so, dass wir in eine Abhängigkeit kommen, die wir selbst nicht mehr durchschauen können.
Jeder merkt sofort, dass dies nichts Neues ist, nichts, was erst durch die KI entsteht. Was ich meine, ist schon lange da. Es sind Dinge, die uns von Ursache und Wirkung entfremden. Wir sind nur noch ein Teil im Getriebe der Macht. Wir erledigen unseren Job, und der ist für sich alleine genommen nicht schlimm. Ich stanze zum Beispiel 50 Bleche am Tag in eine bestimmte Form, sodass man etwas hinein füllen kann. Nicht schlimm. Ein anderer stanzt Bleche so, dass sie wie Flügel aussehen. Und ein Nächster verbringt den ganzen Tag damit, die Flügel an die runden Bleche zu schweißen. Alles nicht schlimm. Wieder ein anderer füllt Sprengstoff hinein, selbst dieser Vorgang ist für sich genommen nichts Schlimmes. Und so geht das immer weiter, selbst der, der die Geschosse in eine Kanone packt oder in einen Flieger zum Abwerfen, tut nur seinen Job.
Jeder macht nur seinen Job.
Wir tun alle immer nur unseren Job. Und am Ende ist es erst schlimm, wenn die Bombe explodiert und Menschen tötet, aber wer ist dann bitte noch verantwortlich dafür? Der, der die Bleche geschraubt hat? Der, der die Dinger bestellt hat? Der, der sie geworfen hat? Der, der vorher den Streit hat eskalieren lassen? In Wahrheit sind alle daran schuld. Alle zusammen. Und genau das ist auch die größte Gefahr, die bei KI besteht.
Wir werden durch KI noch schneller und noch besser von der Verantwortung entkoppelt, die wir alle selbst den Dingen gegenüber haben. Ich werde Aufträge, Mikro-Aufgaben abarbeiten und sonst nichts. Die Frage wird dann aber sein, wer steuert das Große und Ganze, wenn wir alle mit Mikro-Aufgaben beschäftigt sind? Auch hier sehe ich keine KI, die das selbst steuert nach speziellen Vorgaben, sondern genau die Menschen, die diese Vorgaben machen werden. Die Systeme werden zu komplex, als dass wir sie als einzelne Menschen noch durchschauen können. Und genau das ist die Gefahr, die von allem ausgeht, nicht der KI selbst.
Wir werden irgendwann nicht mehr wissen, und das schon sehr bald, was wir tun, beziehungsweise, wie das mit dem Rest zusammenhängt. Wir haben ja nur ein paar Fake-Videos gemacht, zum Spaß, oder ein paar Texte für eine Doktorarbeit raus kopiert. Das interessiert doch eh keinen wirklich, oder? Nun ja, mag sein, aber letztlich ist es nicht nur Betrug anderen gegenüber, sondern auch sich selbst gegenüber. Dieser Selbstbetrug und die Hilflosigkeit dem System gegenüber wird wachsen. Schließlich muss ich die Doktorarbeit ja fälschen, weil die anderen das auch längst tun.
Wie kommen wir jetzt wieder raus aus diesem Dilemma?
Wir werden genauer hinsehen müssen. Wer will was und warum von uns. Nicht immer nur darauf schauen, was wir damit verdienen können. Wir werden wieder mehr Verantwortung uns allen gegenüber übernehmen müssen, wenn wir nicht in Dystopien enden wollen. Und wir werden für Transparenz sorgen müssen, so dass alles immer nachvollziehbar bleibt. Was tut die KI, auf wessen Befehl hin und wie wirkt sich das aus. Diese Prozesse müssen immer sichtbar sein, sonst begeben wir uns in diese selbstgewählten Ketten anderer, der Leute, die die KIs steuern und damit uns steuern.
Spannenderweise ist das größte Manko der KI die Emotion. Es wird so viel Forschung betrieben, damit KI Emotionen erkennen kann und deuten kann. Und gleichzeitig werden wir Menschen immer emotionsloser gemacht. Alles, was wir tun, soll sinnvoll sein und zweckgebunden, und wir sollen funktionieren. Lass doch mal den Gefühlsquatsch weg, hier bist du bei der Arbeit, Gefühle kannst du in deiner Freizeit haben. Tja, dann machen wir uns Menschen aber immer mehr zu Robotern. Also einerseits versuchen wir der KI Emotion bei zu bringen und andererseits machen wir uns selbst immer mehr zu Maschinen. Finde den Fehler.
Die KI wird uns ein nützlicher Helfer sein, um Systeme und Prozesse zu verstehen, die wir teilweise jetzt schon nicht mehr begreifen. Wer könnte Unmengen an Daten besser auswerten und Anomalien besser finden als KI? Wer sonst könnte uns dabei helfen, komplexe Zusammenhänge zu durchschauen und uns dabei unterstützen, bessere Entscheidungen zu treffen?
Verantwortung, Transparenz und Nachvollziehbarkeit.
Aber wir dürfen dabei nicht vergessen, dass KI nur ein Werkzeug ist. Sie ist nicht gut oder böse, sie tut nur, was wir ihr sagen. Die wirkliche Gefahr liegt nicht in der KI selbst, sondern in uns Menschen. Wir sind es, die entscheiden, wie wir KI nutzen und was wir mit ihr erreichen wollen. Und genau hier liegt die Verantwortung, die wir nicht abgeben dürfen.
Wir müssen uns bewusst sein, dass wir mit jeder Anwendung, die wir einer KI überlassen, einen Teil unserer Kontrolle abgeben. Das kann sehr bequem sein, aber es birgt auch Risiken. Wir dürfen nicht vergessen, dass wir es sind, die die Regeln festlegen und die Grenzen ziehen. Wir müssen sicherstellen, dass wir immer die Kontrolle behalten und dass wir immer verstehen, was unsere KI tut und warum sie es so tut wie sie es tut.
Ich glaube, dass wir keine Angst vor KI haben sollten. Stattdessen sollten wir die Verantwortung für unser Leben, unseren Planeten und die gesamte Menschheit wieder übernehmen. Mit dieser Verantwortung können wir KI so programmieren, dass sie viel Gutes tun kann. Aber wir müssen auch bereit sein, die Konsequenzen unserer Entscheidungen zu tragen. Und diese Entscheidungen sollten wir im vollsten Bewusstsein und mit all unserer Hingabe zum Mensch sein treffen.
Furcht, oder Verantwortung?
Wir sollten uns nicht vor KI fürchten oder sie als Gefahr ansehen, sondern sie als Chance sehen. Eine Chance, uns selbst besser zu verstehen und unsere Welt zu verbessern. Aber wir dürfen dabei nie vergessen, dass wir es sind, die die Kontrolle haben und die Verantwortung tragen. Nur so können wir sicherstellen, dass KI uns dient und nicht umgekehrt.
“Aus großer Kraft folgt große Verantwortung.” Diesen Satz gibt der sterbende Onkel Ben dem jungen Spiderman kurz vor seinem Tod mit auf den Weg. Jetzt, da wir mit der KI große Kraft in unseren Händen haben, sollten wir auch die große Verantwortung bewusst und sinnvoll übernehmen und sie im Sinne des Guten einsetzen.