Menschenzentrierte KI-Forschung

Gastbeitrag von Alexander Mirnig, Center für Human-Computer Interaction, Universität Salzburg

Am 15. Juni 2021 fand unter dem Titel „Menschzentrierte KI-Forschung“ eine gemeinsame Informations- und Disseminationsveranstaltung von vier österreichischen Forschungsprojekten zum Themenbereich „Transparenz und Fairness von Künstlicher Intelligenz“ statt.

Organisiert wurde die Veranstaltung in Zusammenarbeit von AIT Austrian Institute of Technology, Center for Technology Experience (Peter Fröhlich) und dem Center für Human-Computer Interaction der Universität Salzburg (Alexander Mirnig). Einleitende Worte gab es von Charlotte Alber und Reinhard Zeilinger von der Österreichischen Forschungsgesellschaft FFG, welche Fördergeber aller vier vorgestellten Projekte war.

In einem zweistündigen virtuellen Format wurden die teilnehmenden Projekte, ihre Themenbereiche, spezifischen Ziele und bisher erreichten Ergebnisse vorgestellt. Im Folgenden eine Kurzbeschreibung aller vier Projekte:

  • CALIBRaiTE konzentriert sich auf Themen der fairen und vertrauensvollen Interaktionsgestaltung von Erfahrungen zwischen Mensch und Künstlicher Intelligenz. Der Fokus liegt dabei auf der Kalibrierung von Verlässlichkeit in intelligenten Systemfunktionen, mit dem Ziel der vorhersehbaren Wartung. (Präsentiert und vertreten von Peter Fröhlich, AIT Austrian Institute of Technology)
  • dAIalog.at widmet sich ebenfalls dem fairen und vertrauensvollen Umgang zwischen Mensch und KI. Das Projekt setzt bei der Entwicklung partizipativer Technikformate an und verfolgt implizit das Ziel einer gesamtheitlichen Förderung von Fairness in KI. (Präsentiert und vertreten von Anita Thaler, Interdisziplinäres Forschungszentrum für Technik, Arbeit und Kultur)
  • complAI wirft Fragen nach Ethik, Recht und Sicherheit in Bezug auf den Einsatz von KI auf und versucht, diese Bereiche mittels modellbasierten Risikomanagements in Angriff zu nehmen. Praktische Anwendung findet dieser Ansatz in der Ansteuerung von Robotik im Bereich der Assistenzsysteme für Organisationen. (Präsentiert und vertreten von Robert Woitsch, BOC Asset Management und Benjamin Breiling, Joanneum Research)
  • FAIRALGOS befasst sich mit Fairness, Bias und Transparenz von Computer Vision Algorithmen, um die Funktionsweise von bildbasierenden, entscheidungstreffenden Systemen und deren Auswirkungen zu verstehen. Ziel ist, einer resultierenden Klassifizierung und Diskriminierung durch Systeme mit Künstlicher Intelligenz entgegenzusteuern. (Präsentiert und vertreten von Martin Kampel, TU Wien)

So wurde ein spannender Bogen von Grundfragen der ethischen, fairen und transparenten KI bis hin zur Forschung in konkreten Anwendungskontexten gespannt, worauf in der zweiten Hälfte der Veranstaltung eine Diskussionsrunde mit Expert/innen folgte, in der die gewonnenen Erkenntnisse aus den Projekten gemeinsam reflektiert wurden.

An der Podiumsdiskussion nahmen die folgenden Expert/innen aus den beteiligten Projekten teil:

  • Jasmin Lampert (AIT Austrian Institute of Technology, Projekt: CALIBRaiTE)
  • Christopher Frauenberger (Universität Salzburg, Projekt: dAIalog.at)
  • Karin Bruckmüller (Johannes Kepler Universität Linz, Projekt: complAI)
  • Roger von Laufenberg (VICESSE Vienna Centre for Societal Security, Projekt: FairAlgos)

Beginnend mit der Rolle, welche Ethik und ethische Aspekte in den jeweiligen Projekten einnehmen, schwenkte das Thema rasch auf eine Diskussion rund um Fairness und Gerechtigkeit im Zusammenhang mit KI. Werden Recht und Rechtsprechung immer als fair empfunden? Wie sieht es hinsichtlich Autonomie aus?

Diese sollte beim Menschen bleiben, demgemäß auch die Kontrolle über das System. Sanktionsfolgen hingegen sollen nicht allein beim Menschen liegen, wenn eine KI zum Einsatz kommt. Wichtig sei es, so Bruckmüller, dass der Mensch „keine Angst vor dem Recht haben muss“.

Ein weiteres Diskussionsfeld stellte jenes um den so genannten Datenbias dar, d. h. der „Voreingenommenheit“ eines Systems aufgrund einer unvollständigen und/oder nicht-repräsentativen Datenbasis. Lt. Lampert startet der Datenbias bereits ganz zu Beginn, sofern nicht alle relevanten Stakeholder von Anfang an und vollständig eingebunden sind, was schon aus rein pragmatischen Gründen ein noch großes Spannungsfeld darstellt.

Frauenberger hingegen sieht die Thematik des Datenbias zwar als sehr greifbar und daher im Mittelpunkt der Diskussion, jedoch nicht als „die Wurzel von KI“. Diese liege hingegen in der Frage, was der Algorithmus optimieren und in welche Aspekte des Lebens dieser eingreifen solle. Ein Algorithmus könne noch so fair sein und dennoch Lebensaspekte reduzieren und einschränken.

Schließlich führte die Diskussion zu aktuellen Barrieren und zur Frage, was, vor allem auch aus österreichischer Sicht, zur Bewältigung dieser beigetragen werden kann.

Die Effektivität von Partizipation im Rahmen der Stakeholder-Einbindung, und wie gut diese in der Praxis wirklich funktioniert, wurde dabei in Frage gestellt. Dies wurde mit der weiteren Barriere des gemeinsamen Verständnisses von „Fairness“ zwischen Gesellschaft und Technik in Verbindung gebracht: Es erhebe sich nicht nur die Frage, inwieweit Begriffe wie „Fairness“ in den Mittelpunkt im Sinne von Priorisierung gestellt werden sollen, sondern auch, wie rechtlich-ethische Begrifflichkeiten adäquat für die technische Realisierung zu formulieren seien.

Als Potentiale bzw. Handlungsbedarf wurden vor allem der Austausch und die Bewusstseinsbildung auf allen Ebenen identifiziert. Diskussion sei essentiell, so von Laufenberg. Wenn die Partizipation am Ende gelingen soll, kann dies nur auf Basis eines differenzierten Bewusstseins und Verständnisses geschehen.

Vereinfachende Sichtweisen („Steckmuster“) können zum „Nachlaufen falscher Propheten“ führen. Dem Wissen, dass Stakeholder-Einbindung zu Beginn geschehen muss, solle durch strukturelle Rahmen und laufende Initiativen Rechnung getragen werden.

Dabei sei es wichtig, gezielt die verschiedenen Ebenen (KI-Entwickler, Bildungseinrichtungen, allgemeine Öffentlichkeit) in gleicher Intensität zu adressieren und dies fortlaufend aufrecht zu erhalten. Schließlich sei es noch wichtig, für realistische Erwartungen in der Bevölkerung zu sorgen und, so Woitsch, den „Hype Cycle“ hinsichtlich KI zu vermeiden, so dass auf hohe Erwartungen keine große Enttäuschung folgt, wenn jene Erwartungen nicht erfüllt werden.

Dies kann nur geschehen, wenn neben der erwarteten Zielperformance eines Systems auch die aktuellen Kapazitäten, einschließlich der Einschränkungen, auf der gleichen Ebene mit demselben Detailgrad beleuchtet werden.

Die Organisatoren blicken auf eine erfolgreiche und bereichernde Veranstaltung zurück. Dank der aktiven Beteiligung der teilnehmenden Forschungsprojekte, der Vortragenden und Expert:innen konnte erfolgreich ein Einblick in die innovative Forschung mit aktuellen Resultaten österreichischer KI-Projekte geboten, aber auch die Vernetzung und der Austausch auf diesem Gebiet zwischen den Forschungsinitiativen und Stakeholdern weiter gefördert werden.

Eine Übersicht der Veranstaltung sowie die Folien der Projektvorträge finden sich auf der Veranstaltungs-Webseite.