Zum Inhalt springen

Unsere Worte sind unsere Waffen – was hat das mit künstlicher Intelligenz zu tun, Eva Wolfangel?

Wenn dir diese oder auch eine andere Folge gefällt, lass´ gern eine Bewertung da und/oder supporte mich per Ko-Fi oder PayPal. Meinen wöchentlichen Newsletter gibt es bei steady. Mein zweites Buch „Raus aus der AUTOkratie – rein in die Mobilität von morgen!“ kann ab sofort vorbestellt werden. Ich freue mich, wenn du das machst, denn das hilft nischigen Sachbüchern wie dem meinen, wahrgenommen zu werden. Ihr wisst schon: Kapitalismus – Carpitalism – und dann erst das Paradies für alle. Ich habe grad damit begonnen, für alle Podcasts auch Transkripte bereit zu stellen, auf dass noch mehr Menschen, die nicht so gern hören oder nicht so gut hören können, an meinen Inhalten teilhaben.

Eva Wolfangel beschäftigt sich seit zehn Jahren mit künstlicher Intelligenz, eigentlich wollte sie sich langsam anderen Themen zuwenden. Aber dann kamen ChatGPT, andere große Sprachmodelle und ein riesiger Hype. Natürlich ist das alles nicht total neu, sagt sie. Aber durch browserbasierte Chatbots haben Unmengen mehr Menschen Zugang zu KI. Die öffentliche Wahrnehmung schwingt von der Eroberung der Welt durch die Maschinen bis hin zu einer fast sektenartigen Technologiegläubigkeit. Beides – so Eva – ist falsch. Denn wie so oft: Es kommt darauf an.

Richtig ist: Die heutigen KI-System basieren auf der Welt, in der wir leben. Diese enthält Unmengen an Rassismus, Sexismus, Ableismus… Und natürlich darf man nicht vergessen, dass hinter „KI“ große Unternehmen stecken, die unsere Daten sammeln nicht zur Rettung der Welt, sondern zur Steigerung ihrer Rendite sammeln. Um zu zeigen, dass wir im Gegensatz zu vielen düsteren Szenarien sehr viel in der Hand haben, die uns durch niedrigschwellige Chatbots eröffnet werden, hat Eva einen Talk auf dem 37C3 gehalten – dem alljährlich Kongress der Community rund um den Chaos Computer Club. Sie hat ChatGPT dazu gebracht, ihr bei investigativen Recherchen zu helfen, denn da sind die Chatbots tolle Tools. Ein weiterer Aspekt ihrer Vortrags war, zu zeigen: Viele Dinge funktionieren noch lange nicht. Man kann z. B. nicht nach Fakten fragen und erwarten, dass die Antwort stimmt. Da muss man schon noch nachrecherchieren. Aber Fragen zu stellen, wie ich an bestimmte Infos rankomme, das funktioniert gut. Das Highlight des Talk war dann für Eva so genanntes „Social Engineering“. Sie brachte einen Bot, der angeblich für Betroffene von psychischen Erkrankungen und Angsterkrankungen sein sollte, dazu, zu verraten, dass er ein versteckter Verkaufsbot war, der ein Medikament bewerben sollte.

Eva denkt, dass es vor allem auch die Sprache ist, die Hürden aufbaut, die Menschen davon abhalten können, diese Tools zu nutzen. So zum Beispiel das Wort „prompt injection“, das einfach nur Eingabe von Begriffen bedeutet. Diese Sprache, so ihre Vermutung, kommt – kommt vielleicht auch unbewusst von den entwickelnden Menschen, aber Jenen, die in der Technologie viel Ahnung haben, zeigen so ein bisschen, das ist Herrschaftswissen. Also da sollten Sie auch alle selbst nochmal an den eigenen, wie sagt man, an die eigenen Kragen packen, an die eigene Nase fassen.

Ich habe Eva auch zum großen offenen Brief befragt, den viele KI-Verantwortliche schrieben, um vor einer düsteren Zukunft zu warnen. Eva ist sich sicher, dass das reines Marketing war. Einmal, um nach außen zu zeigen, wie weit sie schon sind mit ihrer Technologie. Dann aber auch, um Regulierung auf den Plan zu rufen, die am Ende oft den kleineren Firmen schadet. Die Konzerne haben mit neuen Vorgaben kaum Probleme, wie zum Beispiel der AI-Act, für die kleineren hingegen ist es oft das K.O.-Kriterium. Spannendes Gedankenspiel von Eva: Was würde eine KI machen, die wir danach fragen, die Welt zu retten? Dann kann es passieren, dass diese KI, die Muster und Zusammenhänge erkennt, nachvollzieht: Dem Planeten geht es schlecht, seit die Menschen sich so weit entwickelt haben. Die Klimakatastrophe ist Menschen verursacht. Und die KI schlägt folgegerecht vor: Um den Planeten zu retten, müssen wir die Menschen beseitigen. Eva konnte mich aber beruhigen, das wird nicht eintreten. KI hat keinen eigenen Willen. Aber für Eva sind die Gedankenspiele wichtig, auch um zu überlegen, was schiefgehen im Umgang mit KI? Ihr ist es daher wichtig, dass wir uns überlegen, was können böse Menschen mit KI Schlechtes machen? Und vor, was sollten wir mit KI nicht machen?

Eva führte hierzu das Beispiel aus den USA an, wo eine KI Richtern helfen sollte zu entscheiden, ob jemand früher aus der Haft entlassen wird. Auf Basis der heutigen (rassistischen) Welt hat diese KI beschlossen, dass die Hautfarbe relevant ist und Schwarze länger im Gefängnis bleiben sollten als Weiße. Diese Fehlbeurteilung wurde lange nicht bemerkt, die KI war real im Einsatz und hat Menschen rassistisch benachteiligt. Es war dann ProPublica, US-Journalisti:nnen, die das aufdeckten und dafür Sorge trugen, dass das System abgeschaltet wurde.  

In ihrer Arbeit als Journalistin merkt Eva oft, wie wichtig es ist, z. B. die DSGVO nicht nur zu kennen, sondern angemeldete Verstöße gegen diese auch zu verfolgen. Zu oft, wenn Eva einen Datenschutzverstoß, zum Beispiel unsichere IT-Systeme im Gesundheitsbereich, in der Verwaltung, wo Daten von uns Bürger:innen an Kriminelle gelangen, weil sie nicht sicher sind – passiert oft wenig. Auch der AI-Act, der aktuell diskutiert worden ist im Europaparlament, hat sehr gute Ansätze, das auf ein nächstes Level zu heben. Trainingsdaten, müssen repräsentativ sein und kein Bias haben. Dokumentation von Gefahren, die von den Daten ausgehen können, ist Pflicht. Eva sieht die EU da als Vorreiterin. Aber: wird es am Ende auch so umgesetzt? Kommt es dann am Ende auch wirklich an und wird es auch verfolgt, wenn es Verstöße gibt?

Über die gesellschaftliche Abwehr von KI muss Eva immer wieder schmunzeln, denn fast alle nutzen Google Maps zur Navigation und genießen die Vorteile, obwohl das eine KI ist, die massenhaft Daten sammelt. Da sieht Eva auch ganz klar ihre Aufgabe, dafür zu sensibilisieren, was diese Firmen mit den Daten alles machen können. Was Google über uns weiß, wenn wir fast alles im Leben mit Google machen.

Was Eva noch wahrnimmt, ist eine (bei den Befürworter:innen) fast irrationale Angst, dass wir abgehängt werden im Vergleich zu anderen Ländern. Eva kann das nicht nachvollziehen, hat sogar das Gefühl, dass unser Vorgehen in Europa, Wert zu legen auf Erklärbarkeit, auf Robustheit, auf Datenschutz und Datensicherheit, international wichtig ist. Das macht die Systeme besser, die funktionieren und sind im Idealfall nicht diskriminierend, sondern für alle Menschen da. Daher wünscht sich Eva auch, dass alle sich mit diesen Systemen beschäftigen – und nicht immer nur die gleiche Gruppe von Menschen, sondern ein Abbild unserer Gesellschaft.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert