KAI Magie

KAI - no magic inside

„KI ist keine Magie“ – Prof. Dr. Katharina A. Zweig im Interview mit der RHEINPFALZ

Verschiedenste Anwendungen künstlicher Intelligenz gewinnen gegenwärtig konsequent an Bedeutung und werden dabei lebhaft diskutiert. Um nur ein paar wenige Beispiele zu nennen betrifft dies im Alltag Bereiche wie:

  • Sprachsteuerungen
  • Vorschlagsysteme
  • das computergestützte Arbeiten
  • die Medizin

Manche Fragen bleiben für ungeschulte Nutzer und Betroffene jedoch ungeklärt – insbesondere solche nach dem richtigen und verantwortungsvollen Umgang mit persönlichen Daten oder den konkreten Folgen der Implementation von KI in unterschiedlichen Lebensbereichen. Unsere Gesellschafterin Prof. Dr. Katharina Zweig stand der RHEINPFALZ im Interview Rede und Antwort, um Aufschluss über eine Reihe der drängendsten Fragen zu geben und einen dezentralen Ansatz des Lernens von KI zu erläutern, welcher den Datenschutz grundlegend verändern könnte.

„Wir stehen vor spannenden gesellschaftlichen Herausforderungen.“ - Prof. Dr. Katharina A. Zweig

Prof. Zweig betont, dass KI grundlegend stets ein gesamtgesellschaftliches Thema ist: Die Gesellschaft muss entscheiden können, wo und wann sie KI in vorteilhafter Weise eingesetzt sehen möchte – und in welchem Umfang. Kosten-Nutzen-Abwägungen seien in diesem Zusammenhang ebenso wichtig wie die Frage nach zu wahrenden gesellschaftlichen Werten. Sobald ermittelt werden konnte, welche Bereiche des Zusammenlebens von künstlicher Intelligenz profitieren und einen dahingehenden Ausbau erfahren sollen, stellt sich im nächsten Schritt die Frage nach adäquatem Datenschutz. Hier kann angesichts immer weiter wachsender und schwerer zu kontrollierender Datenmengen die Idee eines Umdenkens entstehen, und zwar bereits in der nahen Zukunft.

„Wir bräuchten einen Paradigmenwechsel bezüglich der Technologie.“ - Prof. Dr. Katharina A. Zweig

Einen solchen Wechsel sieht Prof. Zweig in dem dezentralisierten Lernen der KI-Systeme. Statt große Mengen personenbezogener Daten weiterhin von den entsprechenden Firmen und Dienstleistungsanbietern selbst speichern sowie zum Training ihrer KI verarbeiten zu lassen und im Zuge dessen die ungefragte Weitergabe oder Datenlecks zu riskieren, könnten in einem solchen dezentralen Konzept unter gesellschaftlicher Kontrolle sogenannte Trusted Data Centers zur sicheren Verwahrung erhobener Daten eingerichtet werden. Hierzulande wäre dies entweder auf nationaler oder europäischer Ebene denkbar. Gegenüber solchen Zentren würden Bürgerinnen und Bürger nun direkt kommunizieren, welche Erhebung und Weiterverarbeitung ihrer Daten sie erlauben möchten. Prof. Zweig sieht die Möglichkeit, innerhalb von 5 bis 10 Jahren einen solchen Übergang „gut verträglich“ zu gestalten, politischen Willen vorausgesetzt.

„KI wird insgesamt näher an uns heranrücken.“ - Prof. Dr. Katharina A. Zweig

Die bereits Realität gewordene Allgegenwart KI-basierter Softwaresysteme führt auch zu der Frage, wie eine Bevölkerung zu sensibilisieren und zu schulen ist, die praktisch täglich in Kontakt mit solchen Systemen kommt. Prof. Zweig sieht hier beispielsweise auch Betriebsräte und SchulelternsprecherInnen als wichtige Empfänger einer entsprechenden Wissensvermittlung. Einen dahingehenden Beitrag leistet sie schon jetzt mit ihrer Buch-Veröffentlichung „Ein Algorithmus hat kein Taktgefühl“. Darin werden unter anderem Techniken vorgestellt, die beim Identifizieren von Szenarien helfen, in welchen das Hinzuziehen eines Expertenrats notwendig ist – beispielsweise durch unser Team der Trusted AI.

Wir schließen diesen Beitrag mit einem letzten zusammenfassenden Zitat:

„Wir sollten uns darauf konzentrieren, KI in einer wertezentrierten Art und Weise mit lokalem Lernen zu entwickeln und einzusetzen.“ - Prof. Dr. Katharina A. Zweig

Weitere Informationen: