Maschinelles Lernen: Anwendungsbereiche, Vorteile und Risiken

Mit ChatGPT, Dall-E, Jasper und ähnlichen Produkten ist Maschinelles Lernen und Künstliche Intelligenz in den Fokus der breiten Öffentlichkeit gerückt. Mittlerweile sind diese Technologien aus unserem Leben nicht mehr wegzudenken.

Das sah vor gar nicht allzu langer Zeit ganz anders aus. Im Jahr 2021 nutzte nicht einmal jedes zehnte Unternehmen in der EU (acht Prozent) Künstliche Intelligenz.

Besonders deutlich zeigt sich die rasche Ausbreitung bei der Nutzung von Algorithmen des maschinellen Lernens in der Produktion und produktionsnahen Bereichen: kamen sie in Österreich im Jahr 2021 laut einer Studie der TU Wien nur bei einem Drittel der befragten Betriebe zum Einsatz, wenden sie nun bereits mehr als die Hälfte der Unternehmen (51,8%) an. Dabei sind die bevorzugten Anwendungsbereiche Qualitätsmanagement, Fertigung, Produktionsplanung und -steuerung.

In diesem Beitrag betrachten wir die Anwendungsbereiche von Maschinellem Lernen, die Vorteile und Risiken sowie legislative Aspekte, die zu berücksichtigen sind.

Was ist Maschinelles Lernen?

Maschinelles Lernen (engl. "Machine Learning", Abk. ML) ist ein Teilbereich der künstlichen Intelligenz (KI), der es Computern ermöglicht, aus Erfahrung zu lernen und Entscheidungen auf der Grundlage von Daten zu treffen, anstatt explizit programmiert zu werden.

Mit zunehmender Datenmenge und Simulationen verbessern sich die eingesetzten Algorithmen, sie lernen sozusagen dazu.

Maschinelles Lernen hat das Potenzial, komplexe Probleme zu lösen und Entscheidungen zu treffen, die auf menschlicher Intelligenz basieren, aber schneller und genauer sind.

Wo ist Maschinelles Lernen bereits im Einsatz?

Maschinelles Lernen wird bereits in vielen verschiedenen Bereichen eingesetzt. Hier sind ein paar Beispiele:

  • Spracherkennung: Siri und Alexa sind bekannte Beispiele für Spracherkennung. Dabei wird Maschinelles Lernen verwendet, um die gesprochene Sprache in Text umzuwandeln und die passenden Aktionen auszuführen.
  • Bilderkennung: Google Fotos erkennt mithilfe von Maschinellem Lernen automatisch Gesichter, Orte und Objekte auf Fotos und kategorisiert diese entsprechend.
  • Medizinische Diagnostik: Maschinelles Lernen kann verwendet werden, um medizinische Bilder wie Röntgenaufnahmen oder MRT-Scans zu analysieren und Krankheiten zu erkennen.
  • Finanzanalyse: Maschinelles Lernen wird in der Finanzindustrie eingesetzt, um Daten zu analysieren und Vorhersagen über zukünftige Marktentwicklungen zu treffen.
  • Automatisierung: Maschinelles Lernen wird verwendet, um Prozesse zu automatisieren, wie zum Beispiel das Sortieren von Paketen in einem Logistikzentrum oder das Steuern von Robotern in einer Fabrik.

Vorteile von Maschinellem Lernen

Mit zunehmender Digitalisierung können Daten in noch nie dagewesener Schnelligkeit und Genauigkeit ausgewertet werden. Maschinelles Lernen spielt dabei eine entscheidende Rolle, vor allem in den Bereichen der Produktivität und Effizienz, und gilt daher als Wettbewerbsvorteil.

  • Bessere Datenaufbereitung: Die Fülle an Daten lassen sich manuell nur mit großem Zeitaufwand aufbereiten. Mit maschinellem Lernen lassen sich viele wesentliche, aber ständig wiederkehrende Schritte automatisieren, um schnellere und genauere Ergebnisse zu erzielen.  
  • Schnellere Datenerkennung: Modelle für maschinelles Lernen können einfachere Analysen und die Verarbeitung von Datensätzen in noch nie dagewesenen Geschwindigkeiten durchführen. So können Muster identifiziert, Beziehungen untersucht und Analysevorschläge erstellt werden.
  • Genauere Prognosen: Mithilfe von maschinellem Lernen können Algorithmen so trainiert werden, dass sie spezifische Parameter miteinbeziehen, wenn sie Prognosen oder Analysen durchführen.

Risiken von Maschinellem Lernen

Obwohl Maschinelles Lernen viele Vorteile bietet, gibt es auch einige potenzielle Risiken. Hier sind einige davon angeführt:

  • Transparenz und Erklärbarkeit: Da maschinelles Lernen auf Algorithmen und statistischen Modellen basiert, können die Entscheidungen, die von KI-Systemen getroffen werden, schwer nachvollziehbar sein. Bestimmte Gesetze, wie die DSGVO, erfordern, dass automatisierte Entscheidungsprozesse erklärbar und nachvollziehbar sein müssen.
  • Probleme mit Algorithmen, Datenbias: Wie bei vielen Bereichen gilt auch beim Maschinellen Lernen der Grundsatz „Garbage in, garbage out“. Werden schlechte, falsche oder voreingenommene Daten zugrunde gelegt, können nur schlechte und zum Teil diskriminierende Ergebnisse herauskommen.
  • Datenschutz: Maschinelles Lernen basiert auf der Verarbeitung von Daten. Wenn diese Daten jedoch nicht angemessen geschützt werden, kann dies zu Verstößen gegen den Datenschutz führen, wie beispielsweise der unbefugten Verwendung von persönlichen Daten oder dem Missbrauch von Daten.
  • Sicherheitsrisiken: Wenn Maschinelles Lernen in sicherheitskritischen Bereichen eingesetzt wird, wie z.B. in der Luftfahrt oder der Medizin, können Fehler oder Schwachstellen in der Technologie zu ernsthaften Sicherheitsrisiken führen.

Es ist wichtig, dass Unternehmen und Regierungen diese potenziellen Risiken berücksichtigen und Maßnahmen ergreifen, um sicherzustellen, dass die Anwendung von Maschinellem Lernen sicher und verantwortungsvoll erfolgt.

Legislative Aspekte und der AI Act

Die rasche Ausbreitung von Künstlicher Intelligenz und Maschinellem Lernen macht es notwendig, Rechtssicherheit und Standards für diesen Bereich zu schaffen. Momentan sind diese Technologien noch kaum reglementiert.

Aufgrund der oben angeführten potenziellen Risiken von Maschinellem Lernen werden die Stimmen für eine Regulierung jedoch lauter. Auf EU-Ebene wurde bereits im April 2021 ein Vorschlag für eine Verordnung über künstliche Intelligenz (KI) – den „AI Act“ vorgelegt. Der offizielle Titel lautet "Verordnung des Europäischen Parlaments und des Rates über die Regulierung von KI". Am 8. Dezember 2023 einigte sich die Europäische Union als erste Regulierungsbehörde weltweit auf ein Regelwerk für den Einsatz von künstlicher Intelligenz (KI).

Jeannette Gorzala AI Austria
„KI-Regulierung ist eine zentrale Frage der Zukunft unserer Gesellschaft. Um zu gewährleisten, dass wir das Potenzial dieser Technologie ausschöpfen und gleichzeitig krasse Risiken minimieren, müssen alle Stakeholder zusammenarbeiten. Jetzt haben wir die Chance, die Architektur für einen prosperierenden, verantwortungsvollen KI-Einsatz zu definieren.“
AI Austria

Auch Mira Murati, Chief Technology Office bei OpenAI, macht sich für eine Regulierung stark: im Interview mit dem Time Magazine betont sie, dass der Einsatz von KI klaren Regeln unterworfen werden sollte und man sich die Frage stellen muss, wie er so gesteuert werden kann, dass er mit den menschlichen Werten in Einklang ist.

Standards können ethische Vorgaben bei der Entwicklung von Anwendungen berücksichtigen und somit die Grundlage für weitere Innovationen bilden.

Der AI Act soll einheitliche Standards für die Entwicklung, den Einsatz und die Vermarktung von KI in der EU schaffen. Die Verordnung soll sicherstellen, dass KI-Systeme sicher, transparent und verantwortungsvoll eingesetzt werden und dass grundlegende Rechte und Freiheiten der EU-Bürger gewahrt bleiben.

AI Act im Überblick

Die Verordnung kategorisiert KI-Systeme in folgende Bereiche: inakzeptables - hohes - geringes und minimales Risiko. Je nach Bereich sind unterschiedliche Regulierungen bzw. Handlungspflichten vorgesehen.

Zu den Bestimmungen des AI Act gehören unter anderem:

  • Verbot von KI-Systemen mit inakzeptablem Risiko: z.B. Systeme, die eine unmittelbare Bedrohung für die Sicherheit, Gesundheit oder Grundrechte von Menschen darstellen können. die nicht wahrnehmbare Manipulation menschlichen Verhaltens, Ausnutzung von Schwächen einer Person sowie Social Scoring. Auch KI-Anwendungen für Predictive Policing und Risk Assessment Tools, biometrische Kategorisierungssysteme, Ge-sichtserkennungsdatenbanken durch Scraping von Social Media oder Überwachungskameras und Emotionserkennungssysteme in bestimmten Bereichen wie Strafverfolgung fallen in diesen Bereich.
  • Strenge Anforderungen an hochrisikoreiche Systeme, zu denen die kritische Infrastruktur, Bildung, Strafverfolgung, Medizin usw. zählen.
  • Oberflächliche Maßnahmen und Kennzeichnungspflicht für KI-Systemen in Chatbots und Deepfakes  
  • Anforderungen an die Datensicherheit und den Schutz personenbezogener Daten im Zusammenhang mit KI-Systemen.
  • Einrichtung einer EU-Datenbank für Hochrisiko-KI-Systeme sowie eines europäischen Ausschusses für künstliche Intelligenz, um die Durchsetzung und Überwachung der Verordnung zu unterstützen.

Am 8. Dezember 2023 einigte sich die Europäische Union auf das Gesetz zur Regulierung von KI, das damit das erste seiner Art weltweit ist.

Maschinelles Lernen und Elektrotechnik/Informationstechnik

In vielen Anwendungsbereichen des Maschinellen Lernens, wie z.B. der industriellen Automatisierung oder dem autonomen Fahren, werden elektronische Komponenten wie Sensoren, Mikrocontroller, Mikroprozessoren und andere elektronische Geräte verwendet, um Daten zu sammeln, zu verarbeiten und auszugeben.

Bei der Qualitätskontrolle von Fertigungsprozessen wird Ausschuss von einwandfreien Produkten mittels Bildverarbeitung und ML unterschieden. Solche Systeme werden von Automatisierungstechnikern implementiert. Die Automatisierungstechnik ist ein Teilgebiet der Elektrotechnik.

Zudem sind auch viele Technologien und Techniken, die im Maschinellen Lernen verwendet werden, eng mit der Elektrotechnik und Informationstechnik verbunden. Zum Beispiel basieren Deep Learning-Modelle auf neuronalen Netzen, die wiederum auf der Theorie der künstlichen Neuronen und der linearen Algebra basieren. Diese Theorien werden in der Informatik behandelt, die ihre praktische Anwendung wiederum in der Informationstechnik findet.

Darüber hinaus sind viele der Algorithmen und Techniken, die im Maschinellen Lernen verwendet werden, sehr rechenaufwändig und erfordern leistungsfähige elektronische Hardware wie Grafikprozessoren (GPUs) oder spezielle Rechenhardware (z.B. ASICs), um in angemessener Zeit durchgeführt zu werden. Die Elektrotechnik spielt hier eine wichtige Rolle bei der Entwicklung und Optimierung solcher Hardware-Komponenten. In diesem Zusammenhang sei auch Quantencomputing genannt. Es wird intensiv an einer Implementierung von ML auf Quantencomputern gearbeitet, um rechenintensive Problemstellungen lösen zu können.

Zusammenfassend lässt sich sagen, dass Maschinelles Lernen, Elektrotechnik und Informationstechnik eng miteinander verbunden sind und dass Elektrotechnik und Informationstechnik eine wichtige Rolle bei der Entwicklung und Anwendung von Maschinellem Lernen spielt.

Ausblick: wo geht die Reise hin?

Durch die rasche Ausbreitung von Maschinellem Lernen sollte es ein vorrangiges Ziel sein, die o.g. Risiken in den Griff zu bekommen. Hier gilt es, eine ausgewogene Balance zu finden zwischen dem Eindämmen der Risiken durch verbindliche Reglementierung und einer „Überregulierung“, die unter Umständen die Innovationstätigkeit hemmen könnte.

Auch Ängste im Umgang mit KI sollten offen angesprochen werden: laut Studie von PwC haben 67 Prozent der Befragten nur wenig Vertrauen in KI-Anwendungen und empfinden deren zunehmenden Einsatz als beängstigend oder beunruhigend.

Neben dem Einsatz von KI für Betrugsmaschen und für das Verbreiten von Fake News fürchten die Österreicher:innen sich auch um ihre Jobs: 2/3 denken, dass KI-Anwendungen in Zukunft heimische Arbeitsplätze bedrohen.

Wie sich das Vertrauen in Maschinelles Lernen und Künstliche Intelligenz stärken lässt, haben wir Clemens Wasner, CEO von EnliteAI und Board Member bei AI Austria, gefragt: "Vor allem im Kontext der industriellen Anwendung ist es wichtig, dass KI planbare und nachvollziehbare Ergebnisse liefert. Dies kann einerseits dadurch erzielt werden, dass KI Systeme als Support bzw. Empfehlungssysteme konzipiert werden, welche Mitarbeiter:innen nicht nur eine bestimmte Aktion vorschlagen, sondern auch detaillierte Aufschlüsse, wie es zu dieser Empfehlung gekommen ist. Ein weitere wichtiger Faktor werden Zertifizierungen werden, welche im Rahmen des European AI Act für eine Vielzahl an kritischen Systeme verpflichtend werden."

Clemens Wasner, Enlite AI
"KI muss planbare und nachvollziehbare Ergebnisse liefern."
CEO EnliteAI

OVE Presse

Mag. Cornelia Schaupp
Leitung Presse und Kommunikation

Eschenbachgasse 9
1010 Wien

Presse-Abo-Service

Abonnieren Sie künftige Pressemeldungen.
zum Formular