Prof. Dr. Katharina A. Zweig zu Gast im ZDF-Mittagsmagazin

verfasst von Marcel Laessing
Marcel Laessing
verfasst von Marcel Laessing

1 Minute(n) Lesezeit

Prof. Zweig im Mittagsmagazin

Im Interview mit Moderatorin Jana Pareigis hatte unsere Gesellschafterin Prof. Zweig kürzlich die Gelegenheit, grundsätzliche Herausforderungen im Umgang mit Algorithmen sowie das Kernanliegen ihres Buches „Ein Algorithmus hat kein Taktgefühl“ zu erläutern.

Sie betont, dass Algorithmen und mit deren Hilfe lernende Maschinen unseren kulturellen und moralischen Werten folgen müssen. Um diese zu ermitteln, müssen je nach Situation immer wieder Konflikte abgewogen und gesellschaftliche Diskussionen geführt werden. Finden diese nicht statt, überträgt sich umgekehrt eine mögliche menschliche Diskrimierung ungefiltert auf die Maschine.

„Die Fehlerquote ist tatsächlich riesig.“

Prof. Dr. Katharina A. Zweig

Ein brisantes Anschauungsobjekt bieten beispielsweise Algorithmen, welche zur Ermittlung der Rückfälligkeitswahrscheinlichkeit von Straftätern dienen sollen. Die der Berechnung zugrundeliegenden Eigenschaften der betroffenen Menschen sind zu diesem Zweck völlig unzureichend – Prof. Zweig führt Fehlerquoten bis zu 80 % im Kontext von Hochrisiko-Kategorisierungen für Gewaltdelikte an.

„KI bietet wunderbare Möglichkeiten, uns bei der Arbeit zu unterstützen.“

Prof. Dr. Katharina A. Zweig

Doch es existieren durchaus adäquate Anwendungsgebiete für Algorithmen. Prof. Zweig nennt das Beispiel des Bewerbungsprozesses: Hier könnte ein Algorithmus problemlos die Einhaltung notwendiger Formalitäten kontrollieren und bei Nicht-Einhaltung durch entsprechendes Aussortieren von Bewerbungen menschliche Arbeit sparen.

„Wir machen uns mal wieder viel zu viele Sorgen.“

Prof. Dr. Katharina A. Zweig

Prof. Zweig ermuntert daher auch zu einer Portion Optimismus. Algorithmen befinden sich nicht außerhalb unserer Kontrolle, sondern bleiben gestaltbar. Hierzu können und sollten wir zur Verfügung stehende demokratische Werkzeuge aktiv nutzen. Prof. Zweig verweist beispielsweise auf Betriebsräte als mögliche Kontrollinstanz in der Arbeitswelt. Gegenwärtig sei somit kein Fokussieren auf Angst-Szenarien, sondern die Konzentration auf gute, in Regelwerke eingebette KI-Systeme geboten.

Link zum Video:

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.