Künstliche Intelligenz: Open Science als Schlüssel zu Fairness, Transparenz und Innovation

Eigentlich leben wir in einer Welt, in der die bahnbrechenden Entwicklungen in der Künstlichen Intelligenz (KI) nicht hinter verschlossenen Türen großer Technologieunternehmen stattfinden sollten, sondern auf einer zunehmend offenen, global zugänglichen Bühne – mittels Open Source-Technologien.

Das Problem ist jedoch, dass der Zugang zu wichtigen Daten und fortschrittlichen Rechenkapazitäten nur wenigen privilegierten Akteuren wie großen Technologiekonzernen vorbehalten ist. Die Bedeutung von Open Source in der Entwicklung, aber auch Regulierung von Künstlicher Intelligenz wächst stetig.

In einer Zeit, in der KI das Potenzial hat, viele Aspekte unseres Lebens zu verändern, und ihr aufgrund diverser Skandale auch viel Skepsis entgegenschlägt, steht die Frage im Raum: Wie können wir gemeinsame Ressourcen, Infrastrukturen und Steuerungsansätze schaffen, damit diese Technologie niemandem schadet, sondern im Gegenteil sozial positiv wirken kann? Dieser Artikel beleuchtet, warum es entscheidend ist, nicht nur Open Source, sondern auch Open Science in der Governance-Debatte zu berücksichtigen.

In jüngerer Vergangenheit haben verschiedene Vorfälle im Bereich der Künstlichen Intelligenz für Aufsehen gesorgt und das Vertrauen in diese Technologie erschüttert. Dazu zählen Datenschutzverletzungen, bei denen KI-Systeme persönliche Daten ohne Erlaubnis nutzten, sowie Fälle von Voreingenommenheit und Diskriminierung, wo KI zur unfairen Behandlung bestimmter Gruppen führte. Auch die unzähligen Verletzungen des Urheberrechts werden in nächster Zeit weiter in den Schlagzeilen bleiben.

Die Entwicklung von Deepfakes und anderen manipulativen generativen Techniken durch KI hat zudem Ängste vor der Verbreitung von Falschinformationen bis hin zur Manipulation demokratischer Wahlen verstärkt. Diese Vorfälle unterstreichen die Notwendigkeit einer verantwortungsbewussten Entwicklung und Nutzung von KI, mit einem stärkeren Fokus auf Ethik, Transparenz und Datenschutz und einer starken Regulierung der Produkte am Markt.

Nachdem die Entwicklung von KI stark auf Open Source-Technologien angewiesen ist – eine Art der Softwareentwicklung, bei der der Quellcode öffentlich zugänglich ist und gemeinsam bearbeitet, verbessert und auch weitergegeben werden kann –, sollte man meinen, dass zumindest Transparenz gewährleistet wäre. Doch dem ist nicht so, denn viele Modelle, wie z. B. die den Chatbots zugrundeliegenden großen Sprachmodelle, bauen zwar auf offener Technologie auf und haben Daten aus dem Internet gesammelt, geben jedoch ihre Trainingsdaten und Funktionalitäten nicht bekannt.

Aus offener Technologie wird geschlossener, und oftmals sogar fragwürdiger, Code, denn auch die Provenienz der Daten bzw. ihr urheberrechtlicher Status bleiben im Dunkeln. Des Weiteren benötigen Systeme wie Chatbots oder auch Bildgeneratoren sehr viel Rechenleistung, sowohl im Training als auch dann in der Implementierung.

In einer Welt, in der Daten und Rechenkapazitäten zunehmend die treibenden Kräfte hinter innovativen KI-Anwendungen sind, stellt aber die ungleiche Verteilung dieser Ressourcen eine der größten Herausforderungen dar. Große Technologiekonzerne und wohlhabende Nationen haben oft privilegierten Zugang zu umfangreichen Datensätzen, fortschrittlichen Rechenressourcen sowie den dafür nötigen Energiequellen, was – abgesehen von den Auswirkungen auf die Umwelt – zu einer Machtkonzentration und einem Innovationsgefälle führt.

Diese Ungleichheit behindert nicht nur kleinere Akteure und weniger finanzstarke Nationen, sondern wirkt sich auch auf die Vielfalt und Relevanz der entwickelten KI-Lösungen aus. Denn auch die eigentlich unabhängige Wissenschaft steht zunehmend in einem Abhängigkeitsverhältnis durch den notwendigen Zugang zu kommerziellen Infrastrukturen, sowohl im Bereich der Rechenleistung als auch im Bereich der Daten.

 

Die Notwendigkeit von Offener Wissenschaft

Wie kann sichergestellt werden, dass der Fortschritt in der KI nicht nur einer Elite vorbehalten bleibt, sondern dem Wohl der sozialen Gemeinschaften dient? Zur Beantwortung dieser Frage lohnt sich ein Blick auf die Prinzipien von Open Science – offener Wissenschaft. Open Science bedeutet, dass wissenschaftliche Erkenntnisse, Methoden und Daten für alle frei zugänglich, nutzbar und weiter teilbar und veränderbar sind.

Das Ziel ist es, dieses Wissen so früh und so weit wie möglich zu teilen, um die Ergebnisse überprüfbar zu machen, die Verbreitung neuester Forschung zu fördern und damit einerseits den Forschungs- und Innovationsprozess zu beschleunigen, andererseits die Wissenschaft transparenter und inklusiver zu machen. Ein berühmtes Beispiel für offene Wissenschaft ist das Humane Genom-Projekt.

Hierbei wurde genetische Information über den Menschen in einer globalen Zusammenarbeit gesammelt und dann der Öffentlichkeit zugänglich gemacht, was zu bedeutenden Durchbrüchen in der Medizin und Biotechnologie sowie allgemein in unserem Verständnis des biologischen Lebens führte.

Erst auf Basis dieser offenen Wissensdimension konnten neue wissenschaftliche Felder, aber auch Märkte entstehen. Auch Citizen Science – also die Partizipation von Nicht-Wissenschaftler:innen an der Produktion von Wissen – ist Teil von Open Science. Zentraler Ansatzpunkt der Offenheit ist hier die Schaffung der Möglichkeit der gerechten Zusammenarbeit und Verantwortlichkeit.

Open Science könnte nun auch dazu dienen, den Blick rein von Open Source und dem Streben nach Transparenz auf der Ebene der Methode auf die Qualität der Technologie insgesamt auszudehnen, eine gerechtere Verteilung von KI-Ressourcen zu fördern und eine inklusivere Zukunft der Technologie zu gestalten. Die weltweiten Bemühungen um eine strenge Regulierung für eine verantwortungsvolle KI zeigen, dass hier der politische Wille – oftmals über Ideologien hinweg – gegeben ist.

Nun ist jedoch die Schaffung und Durchsetzung einer solchen Regulierung auf Transparenz bzw. Rechenschaftsnachweise der betroffenen Technologien angewiesen. Ein stärkeres Investment in offene Wissenschaft, welches auch Bemühungen um offene Standards und vor allem offene Infrastrukturen beinhaltet, wäre hier jedenfalls der richtige Weg.

Wir sehen bereits einige Initiativen in Europa, wo man schon allein aufgrund der kulturellen Vielfalt besonderes Augenmerk auf die inklusive Entwicklung von KI setzen muss. So hat beispielsweise Frankreich kürzlich sein Bekenntnis zu Open Source mit finanzstarken Förderzusagen auch im Forschungsbereich bekräftigt1.

Ein wichtiger Eckpfeiler des Europäischen Forschungsrahmenprogramms ist die „European Open Science Cloud“, eine föderierte Infrastruktur zur Verbesserung von Interoperabilität und Zusammenarbeit. Neben dem Zugang zu Daten soll auch der sichere Zugang zu Rechenleistung, Speicherung von Daten und Methoden möglich gemacht werden2.

Die Bedeutung von Open Science erstreckt sich also weit über die reine Förderung von Transparenz und Innovation hinaus; sie könnte auch entscheidend für die Governance im Bereich der Künstlichen Intelligenz werden. In einer Welt, in der KI-Systeme zunehmend globale Auswirkungen haben, ist eine internationale Zusammenarbeit für die Entwicklung von Standards, Richtlinien und Kontrollmechanismen unerlässlich.

Open Science bietet eine Grundlage für diese globale Governance, indem sie einen offenen und zugänglichen Rahmen für den Austausch von Wissen, Forschungsergebnissen und Best Practices bietet. Dies würde wiederum Monitoring- und Kontrollgremien unterstützen, die auf einer breiten, internationalen Wissensbasis aufbauen und so effektivere, inklusivere und gerechtere Regulierungsmaßnahmen für KI-Technologien ermöglichen.

1 https://www.kooperation-international.de/aktuelles/nachrichten/detail/info/france-2030-franzoesischer-staatspraesident-macron-kuendigt-weitere-massnahmen-zur-umsetzung-der-nationalen-strategie-fuer-kuenstliche-intelligenz-an

2https://eosc.eu/

Katja Mayer_(c) Ralf Rebmann
Mag. Dr. Katja Mayer
Elise Richter Fellow
Institut für Wissenschafts- und Technikforschung
Mitglied der Forschungsplattform Governance of Digital Practices
Universität Wien

Leitende Wissenschaftlerin, Zentrum für Soziale Innovation ZSI