Verantwortung im Umgang mit mächtigen Werkzeugen

Verantwortung für die Menschheit im Umgang mit mächtigen Werkzeugen.

Wer trägt wann die Verantwortung für den Umgang mit KI?

Verantwortung im Umgang mit mächtigen Werkzeugen

Die Möglichkeiten, die KI uns bietet, sind riesig. Man stelle sich vor, früher hätte in einem Dorf nur eine einzige Person einen Hammer gehabt. Nur dieser Mensch war in der Lage, Arbeiten zu erledigen, bei denen ein Hammer nötig war. Er trug die Verantwortungen, dass ale Arbeiten mit Hammer im Dorf von ihm auch fachgerecht ereldigt wurden. Mit der Zeit konnten jedoch alle einen Hammer besitzen. Es dauerte nicht lange, bis einige Menschen ihn falsch einsetzten, Dinge zerstörten oder sich selbst verletzten. Doch das Problem war nicht der Hammer selbst, sondern ein mangelndes Verständnis für den richtigen Umgang damit.

Heute hämmern wir alle, ohne groß darüber nachzudenken, Nägel in die Wand, um Bilder aufzuhängen – ganz selbstverständlich. Jetzt ersetzen wir den Hammer durch KI und schauen, was möglich wird. Plötzlich kann jeder wie ein „Konzernchef“ agieren, wenn er oder sie genügend kreative Ideen hat. Doch mit dieser Macht kommen auch Herausforderungen, und diese müssen wir ernst nehmen.


Komplexität und Abhängigkeit – Verantwortung für Daten

Im Gegensatz zum Hammer ist KI kein Werkzeug, das man direkt nutzt. Ihre „Leistung“ hängt stark von Daten ab – und genau das macht es kompliziert. Daten über mich, selbst wenn sie meine eigenen sind, befinden sich oft nicht ausschließlich in meinem Besitz. Viele andere haben Zugriff darauf und können diese Daten mithilfe von KI für alles Mögliche nutzen.

Ein drastisches Beispiel ist der Einsatz von KI in China: Dort werden Bewegungsprofile der Uiguren erstellt. Diese Menschen mussten sich eine App auf ihre Handys laden. Mithilfe dieser App wird genau analysiert, mit wem sie sprechen, wohin sie gehen und wie sie sich verhalten. Wehe, sie sprechen mit den „falschen“ Leuten – das könnte schwerwiegende Konsequenzen haben. Andere Apps werten aus, ob jemand viel zu Hause ist oder oft unterwegs. Wer zu Hause bleibt, wird als „faul“ und „träge“ eingestuft, also als wenig konsumfreudig. Doch dabei kann es genauso gut sein, dass diese Person den ganzen Tag produktiv am Rechner arbeitet. Solche Einordnungen sind nicht nur ungenau, sie schaffen auch ungerechte Bewertungen. Die Verantwortung das diese Dinge eben zum Wohle aller und nicht zur Last genutzt werden liegt da klar bei uns , da wir eine Demokratie sind. Aber auch bei den Herstellern und Betreibern der KI.


Die Sicherheitsrisiken von Daten

Ein weiteres Beispiel für problematische Datennutzung ist die Fitness-App Strava. Sie wurde ursprünglich entwickelt, um sportliche Leistungen zu tracken und neue Laufstrecken zu entdecken. Doch was passiert, wenn Soldaten diese App nutzen? Bewegungsprofile, die erstellt werden, konnten schon militärische Geheimnisse offenlegen. Man weiß dann plötzlich, wo Truppen stationiert sind oder welche Strecken sie zum Laufen nutzen. Es gibt zahlreiche solcher Beispiele, die zeigen, wie Daten ungewollt zu Sicherheitsrisiken werden können.

Das Problem dabei ist nicht nur, dass Daten missbraucht oder auch nur fälschlicherweise zusätzliche Dinge offenlegen, die eigentlich geheim bleiben sollten, sondern auch, dass nicht jeder Zugang zu solchen Technologien hat. Nicht jeder kann sich eine Strava-App und eine dazu passende Smartwatch leisten. Hier liegt der nächste große Aspekt: Ganze Teile der Bevölkerung könnten vom Alltag, wie wir ihn kennen, ausgeschlossen werden. Während einige sich immer weiterentwickeln, könnten andere zurückbleiben.


Wahlfreiheit und Überwachung

Ein weiteres zentrales Problem ist die Frage, ob wir immer die Wahl haben, bei einem System mitzumachen oder nicht. Wenn alle dazu gezwungen werden, eine bestimmte App zu nutzen, wie es bei den Uiguren der Fall ist, entsteht kein Mehrwert. Stattdessen führt das zu totaler Überwachung – einem digitalen Gefängnis. Diese Überwachung beraubt Menschen ihrer Freiheit und zeigt, wie Technologie auch missbraucht werden kann. IWr tragen alle die Verantwortung dafür, das KI eben nicht missbraucht wird.

Gleichzeitig müssen wir darauf achten, wie Daten interpretiert werden. Ein schlechtes Beispiel für falsche Interpretationen ist der bekannte Witz über den Forscher und den Frosch:

Ein Forscher misst, wie weit ein Frosch springen kann. Beim ersten Versuch sagt er „Spring!“, und der Frosch springt 4 Meter. Beim zweiten Versuch hackt der Forscher dem Frosch ein Bein ab, sagt erneut „Spring!“, und der Frosch springt 3 Meter. So geht es weiter, bis der Frosch keine Beine mehr hat. Der Forscher sagt: „Spring!“, doch der Frosch bleibt still. Die Schlussfolgerung des Forschers? „Ein Frosch ohne Beine kann nicht mehr hören.“

Natürlich ist das eine absurde Schlussfolgerung, aber sie zeigt, wie vorschnell wir aus Daten falsche Schlüsse ziehen können. Daten sind immer nur so gut wie das, was wir mit ihnen vorhaben. Aus den Daten ließe sich auch errechnen, dass ein Frosch mit 6 Beinen womöglich 6 Meter springen könnte, was ebenfalls Quatsch wäre. Man kann mit Daten nahezu alles „bewiesen“ bekommen – selbst, dass Frösche ohne Beine taub sind also.


Die Gefahr voreiliger Schlüsse

Besonders kritisch wird es, wenn wir Vorhersagen auf Basis von KI-Daten treffen, z. B. bei Verbrechensvorhersagen. Wir dürfen keine Systeme schaffen, die Vorhersagen machen, die dann nur deshalb eintreten, weil die Datenauswertung sie erwartet hat. Ergebnisse sollten kritisch hinterfragt werden, selbst wenn sie zu 90 % richtig sind. Gerade die verbleibenden 10 % können große Auswirkungen haben und wir haben Verantwortung für jeden, auch diejenigen die aus dem Raster fallen.

Ein aktuelles Beispiel sind Klagen gegen KI-Systeme wie Chatbots. Es gibt Berichte über Chatbots, die Nutzern gefährliche Ratschläge gegeben haben. Ein Schüler soll von einem Bot indirekt dazu animiert worden sein, seinen Eltern zu schaden, weil sie seine Handyzeit begrenzt hatten. In einem anderen Fall geriet ein Chatbot in die Kritik, weil er einer Person mit suizidalen Gedanken mehr Bestätigung als Hilfe gab. Auch soll ein Bot dazu beigetragen haben, dass ein Kind frühzeitig mit Themen konfrontiert wurde, die für sein Alter unangemessen waren. Wir wissen, in den meisten Fällen sind die Bots nur Reaktionsmaschinen, bedeutet, der Fehler des Bots sitzt meistens vor dem Rechner und nicht im Rechner.

Also je nachdem wie ich mit dem Bot interagiere wird er zu einer Verstärkungsmaschine. Er gibt mir immer mehr von dem was mich antriggert. Was ich „gut“ finde, also worauf ich reagiere. Das hat mindestens so viel „Suchtpotenzial“ wie Alkohol oder andere Drogen. Und muss uns alle genauso wachsam machen. Es darf uns aber auch nicht übersensibel machen für die einzelnen Dinge, wenn es gleichzeitig andere gitb die uns noch nicht so bewusst sind. So viele Alkoholtote im Jahr und sie kümmern niemanden in der Gesellschaft. Und jetzt sollen wir uns irre machen weil eine Ki 3 mal sonderbar reagiert hat? Die KI verstärkt, was sie als Input erhält, und gibt davon meistens immer mehr zurück – ein Kreislauf, der kritisch betrachtet werden muss.


Ein positiver Ausblick

Trotz aller Risiken und Herausforderungen bietet KI eine riesige Chance. Klar geht auch die Schere im Bewusstsein immer weiter auf. Also ähnlich wie bei der Armut geht es auch um die geistige Armut so zu sagen. Die Schere wird auch dort weiter aufgehen. Um so wichtiger unsere Verantwortung im Ungang mit diesen Werkzeugen. Sie kann uns auch helfen, bewusster zu leben. Wer achtsam mit KI umgeht, kann durch sie neue Perspektiven gewinnen und sich selbst weiterentwickeln. Es liegt an uns, wie wir KI nutzen: Wollen wir sie nur zur Bestätigung unserer Vorurteile einsetzen, oder sind wir bereit, alte Denkmuster mit KI wirklich zu durchbrechen?

Das bedeutet, wir sollten nicht darüber nachdenken inside oder outside der Box zu denken. Wir sollten ein Denken etablieren in der es überhaupt keine Box gibt, die uns begrenzt. Wenn wir diese Herausforderung annehmen, können wir alles erschaffen, was wir uns vorstellen können. Aber dafür müssen wir lernen, „das Richtige“ zu denken und mit der entsprechenden Verantwortung zu denken. Nur dann wird KI für uns zu einem echten Fortschritt.

Nach oben scrollen