Zum Hauptinhalt wechseln

Künstliche Intelligenz

KI - Gekommen, um zu bleiben

Die Entwicklungen auf dem Gebiet der Künstlichen Intelligenz, abgekürzt KI, sind in den letzten Jahren enorm. Selbst technikaffine Menschen geraten ins Staunen, wenn KI-Programme in Minutenschnelle Lieder komponieren, Texte verfassen oder Bilder erstellen. Doch wie verändert der Einsatz von KI-Systemen die Arbeitswelt? Womit sind Produktionsmitarbeiter:innen bereits heute konfrontiert? Und sind es ausschließlich Gefahren, die auf uns lauern oder ergeben sich durch KI in der Arbeitswelt auch Chancen?

Roboter steht in Fabrik, im Hintergrund verschwommen ein Mensch, Bild ist KI-generiert

Die Auswahl unseres Coverbildes für das Mitgliedermagazin "Glück auf!" ist meist ein längerer Prozess, doch dieses Mal war es relativ einfach. Ein paar kurze Anweisungen – der sogenannte Prompt – genügen und nach kurzer Zeit spuckte das KI-Programm mehrere Bilder zur Auswahl aus. Nicht nur die neuen generativen KI-Programme wie Chat-GPT, suno.ai, DALL-E usw. basieren auf sogenannten KI-Modellen, sondern auch viele Alltagsanwendungen von der Gesichtserkennung auf dem Smartphone, über Sprachassistenten wie Alexa oder Siri bis hin zum Saug- und Rasenmähroboter, der die Umgebung mithilfe von KI erkennt. Auch im Arbeitskontext sind KI-Assistenzsysteme und Programme immer weiter im Vormarsch. Aus diesem Anlass veranstaltet die PRO-GE auch eine österreichweite Betriebsrät:innenkonferenz in den Salinen Austria am 13. Juni. Dort werden sich rund 1.000 Teilnehmer:innen zu diesem spannenden Thema und den Folgen für die Industrie- und Standortpolitik austauschen.

Was ist Künstliche Intelligenz?

Der Begriff „Künstliche Intelligenz“ wurde von dem amerikanischen Informatiker John McCarthy erfunden. Er gebrauchte ihn in der Überschrift eines Förderantrags für eine Konferenz, bei der Programme vorgestellt wurden, die Schach und Dame spielten, Theoreme bewiesen oder Texte interpretierten. Bis heute gibt es keine einheitliche Definition von KI, wahrscheinlich auch, weil „Intelligenz“ selbst nicht klar definiert ist und es auch nicht „die eine KI“ gibt.

KI-Technologien können in verschiedene Teilgebiete unterteilt werden wie wissensbasierte Systeme, die Muster- und Spracherkennung, das maschinelle Lernen oder Robotik. Von der Methode her lassen sich KI-Modelle in die etwas sperrigen Begriffe symbolische KI und subsymbolische KI unterteilen. Routenplaner oder Programme, um Schichtpläne zu erstellen oder Produkte zu konfigurieren, arbeiten mit symbolischer KI. Ihnen liegt ein explizites Regelwerk zugrunde und die Ergebnisse symbolischer KI lassen sich erklären und sind nachvollziehbar.

Subsymbolische KI hingegen wird mit Daten trainiert und kann sich selbstständig auf ein bestimmtes Ziel hin anpassen. Das Modell arbeitet mit Wahrscheinlichkeiten und ist fähig, Muster in Daten zu erkennen und zu verarbeiten, Sachverhalte zu erlernen, Wissen abzuleiten, Vorhersagen oder Entscheidungen zu treffen oder Inhalte zu generieren. Das Problematische dabei ist jedoch, dass viele dieser Ergebnisse nicht nachvollziehbar sind und daher nicht überprüft werden kann, ob ein Ergebnis/eine Entscheidung korrekt oder fehlerhaft ist. 

 

Wie wird KI in der Produktion eingesetzt?

Auch in der Arbeitswelt ist KI mittlerweile nicht mehr wegzudenken. Selbstfahrende Stapler, voll automatisierte Hochregallager, Cobots und verschiedenste Programme, die jeden Arbeitsschritt überwachen, kontrollieren und jedes kleinste Schräubchen in einem Produkt registrieren und am Ende sogar das Drehmoment bei der Montage protokollieren.

Einige Beispiele für Anwendungsgebiete von KI in der Produktion:

  • Optische Inspektion (z.B. klebt die Plakette millimetergenau richtig, gibt es Lackschäden?)
  • Überwachung des Maschinenzustands
  • Montage (z.B. welcher Arbeitsschritt ist als nächstes nötig)
  • Bedarfsprognosen
  • Energiemanagement
  • Logistik und Produktionsplanung
  • Augmented Reality (= Erweiterte Realität; Brillen zeigen Zusatzinformationen zum Gesehenen)
  • Robotik und Exoskelette 
Der kollaborative Roboter (Cobot) kommt im Gegensatz zum klassischen Industrieroboter ohne Schutzzaun aus. Cobots arbeiten mit Menschen im selben Arbeitsbereich. Ausgefeilte Sensortechnik soll dafür sorgen, dass für den Menschen keine Verletzungsgefahr besteht.

Datensammelwut

Damit diese Systeme funktionieren, brauchen sie vor allem eines: Daten; und davon meist eine Unmenge. Darüber hinaus sind eingesetzte KI-Systeme oft eng mit anderen Systemen vernetzt. Wegen dieser großen Datensammelwut von KI-Modellen sind nie da gewesene Formen von Leistungsüberwachung und Einschränkungen der Privatsphäre möglich. Eine repräsentative IFES-Umfrage zu den Digitalisierungssorgen der Beschäftigten im Auftrag der AK von 2023 zeigt, dass diese Sorge real ist: Immerhin rechnen drei Viertel der Beschäftigten mit mehr Überwachung. Zwar ist prinzipiell eine überwiegend positive Einstellung zu Digitalisierung vorhanden. Knapp 60 Prozent sagen, die Digitalisierung bringe in ihrer Arbeit mehr Vor- als Nachteile.

Dennoch sehen elf Prozent, also beinahe jede:r zehnte Beschäftigte durch die Digitalisierung Nachteile. Dieser Wert steigt bei Menschen ohne Matura auf 15 Prozent. Die Technik- und Wissenschaftsforscherin Anita Thaler streicht in diesem Zusammenhang die Wichtigkeit der frühzeitigen Einbindung des Betriebsrats und der Beschäftigten hervor. Auch das Unternehmen würde davon profitieren, denn das würde sich direkt auf die Akzeptanz der Beschäftigten auswirken. KI-Expertin Gertraud Leimüller, die sich mit ihrem Unternehmen leiwand.ai für Fairness in Künstlicher Intelligenz einsetzt, sieht es als unerlässlich an, dass Beschäftigte und Betriebsrat vor Einführung eines KI-Modells informiert werden, welche Input-Daten gefordert und verarbeitet werden.

Die breite Anwendung von Künstlicher Intelligenz verändert unser Leben bereits heute.

Das Gute in der KI

Der Nutzen von KI für die Unternehmen im Hinblick auf die Optimierung von Arbeitsprozessen und die Verbesserung der Produktqualität liegt auf der Hand. Keine Datenmenge ist für die Künstliche Intelligenz zu groß, keine Struktur zu komplex. KI-basierte Assistenzsysteme können aber auch für die Beschäftigten von Vorteil sein. Hier passiert einiges an Forschung, in manchen Betrieben ist es auch schon Realität.

Assistenzsysteme können zum Beispiel Arbeit sicherer oder weniger belastend machen. Zum Beispiel wenn Projektionen akut gefährliche Bereiche markieren, Roboter riskante oder schwere Arbeit übernehmen, wie zum Beispiel bei Sprengungen oder beim Minenentschärfen oder Projekte, die das Bewusstsein für ergonomische Arbeitsabläufe schärfen, um einseitige Belastungen zu minimieren. KI-Modelle können zum Beispiel auch helfen, die Luftqualität an Arbeitsplätzen zu analysieren, um sie in weiterer Folge etwa bei der Verarbeitung von Kunststoffpolymeren zu verbessern.

Exoskelette unterstützen beim Ausführen körperlich anstrengender Tätigkeiten, wie hier beim Einsetzen der Innenraumverkleidung bei Audi in Deutschland.

Auch in puncto Inklusion und Teilhabe haben KI-Assistenzprogramme großes Potenzial. Das Projekt „A2I“ der TU-Wien beschäftigt sich etwa mit der Frage, wie komplexe Arbeitsschritte durch räumliche Projektionen so zerlegt werden können, dass sie leichter erlernbar sind. Die Forscher:innen sehen hier Potenzial für den Fachkräftemangel, indem Jugendliche mit Behinderung befähigt werden, eine Lehre abzuschließen. Oder Sprachassistenzprogramme unterstützen Menschen mit Lese-, Lern- oder Sehschwäche. Und besonders in internationalen Konzernen helfen Übersetzungstools in Echtzeit, Sprachbarrieren zu überwinden. Schließlich unterstützen sogenannte Exoskelette – äußere, mechanische Stützskelette – bei anstrengenden und schweren Tätigkeiten.

Der Mensch im Mittelpunkt

„Wir müssen uns immer vor Augen führen, dass jedes KI-System, mit dem wir heute arbeiten, Fehler hat“, stellt Gertraud Leimüller fest. Studien haben gezeigt, dass Menschen oft dazu neigen, den Entscheidungen von KI-Programmen eher zu vertrauen, weil man glaubt, sie seien objektiver als jene von Menschen. „KI-Modelle werden aber mit Daten trainiert und wenn wir nicht wissen, mit welchen, können wir das Risiko für falsche Ergebnisse nicht einschätzen“, erklärt die KI-Expertin weiter. Sie plädiert deshalb für ein Risikomanagementsystem. Es soll verpflichtend regeln, was passiert, wenn eine KI falsch ausschlägt.

Transparenz und Nachvollziehbarkeit

„Selbst die Programmierenden verstehen die Funktionsweise sogenannter subsymbolische KI (Anm. Erklärung im Infokasten Künstliche Intelligenz) nicht, da sie sich selbst weiterentwickelt. Damit sind auch die Ergebnisse nicht mehr nachvollziehbar“, ergänzt Stefan Woltran, Co-Direktor am Zentrum für Künstliche Intelligenz und Maschinelles Lernen der TU-Wien. Die Klage eines Arbeitnehmers in den USA zeigt das sehr anschaulich, der bei allen Bewerbungen trotz passender Qualifikation scheitert, weil eine KI seine Bewerbung aus nicht offen gelegten Gründen aussortiert. Um möglichst passende Mitarbeiter:innen zu finden, verwenden mittlerweile viele Firmen dasselbe Programm. Der betroffene Arbeitnehmer hat also bei keiner Firma der Branche mehr eine Chance.

„Nicht nur, mit welchen Daten ein KI-Modell trainiert wurde ist wichtig, sondern auch zu wissen, worauf es optimiert ist“, erklärt Leimüller. Chat-GPT etwa sei nicht auf Wahrheit, sondern auf Sprache optimiert. Eine Antwort von Chat-GPT ist zwar meist perfekt formuliert, aber nicht unbedingt richtig.

Woltran als auch Leimüller erachten Gesetze zur verpflichtenden Transparenz bei KI-Modellen und Regulierungen bei deren Anwendungen als sehr wichtig. So habe man erst kürzlich herausgefunden, dass man in Stimmen nicht nur Emotionen herauslesen kann, sondern auch, dass sich bestimmte Krankheiten durch Stimmanalysen vorhersagen lassen. „Zeichnet ein Betrieb also Stimmen auf, so sind das damit auch Gesundheitsdaten“, so Woltran, der weiter ausführt: „Unsere größte Herausforderung ist ein Digitaler Humanismus, also dass der Mensch im Mittelpunkt steht.“ Der AI-Act der Europäischen Union sei hier ein erster, wichtiger Schritt in die richtige Richtung.

Der weltweit erste Regulierungsansatz für KI

Der AI-Act (Artificial-Intelligence-Act) der EU verbietet bestimmte Hochrisikosysteme, die die Rechte der Bürger:innen bedrohen. Dazu zählen unter anderem das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungskameras für Gesichtserkennungsdatenbanken. Ebenfalls verboten sind künftig Emotionserkennungssysteme am Arbeitsplatz oder in Schulen sowie das Bewerten von sozialem Verhalten mit KI. Auch vorausschauende Polizeiarbeit, die einzig auf der Profilerstellung oder der Bewertung von Merkmalen einer Person beruht, und der Einsatz von Künstlicher Intelligenz, um das Verhalten von Menschen zu beeinflussen oder ihre Schwächen auszunutzen, ist nach den neuen Regeln nicht erlaubt.

Für andere Hochrisiko-KI-Systeme sind bestimmte Verpflichtungen vorgesehen. Dazu zählen auch solche, die in den Bereichen kritische Infrastruktur, allgemeine und berufliche Bildung oder Beschäftigung eingesetzt werden. Solche Systeme müssen Risiken bewerten und verringern, Nutzungsprotokolle führen, transparent und genau sein und von Menschen beaufsichtigt werden. Die Bevölkerung hat künftig das Recht, Beschwerden über KI-Systeme einzureichen und Entscheidungen erklärt zu bekommen, die auf der Grundlage hochriskanter KI-Systeme getroffen wurden und ihre Rechte beeinträchtigen.

 

Mitbestimmung und Einbeziehung als Schlüsselfaktor

Künstliche Intelligenz wird nicht mehr aus unserem Leben verschwinden. Das heißt, es gilt die Sorgen der arbeitenden Menschen ernst zu nehmen und genau hinzusehen, wo die Probleme beim Einsatz von Künstlicher Intelligenz liegen. Denn die Angst vor Überwachung erzeugt auch Druck und das wirkt sich negativ auf das psychische Wohlbefinden und die Gesundheit aus. Das komplexere Problem stellen aber Ergebnisse dar, deren Entscheidungsgrundlage wir nicht kennen. Datenschützer:innen, Gewerkschaften und Interessenvertretungen fordern deshalb vehement Transparenz und Nachvollziehbarkeit ein, um Entscheidungen auch anfechtbar zu machen.

Wenn Menschen von KI-Entscheidungen betroffen sind, wie etwa bei Personalbeurteilungen oder Beförderungen, muss der Weg bis zur Entscheidung möglichst transparent und nachvollziehbar sein. Zwar gibt es Ansätze und definierte Grundgebote für einen menschenzentrierten Ansatz von KI. Erklärbare und faire KI-Modelle sind aber immer noch Gegenstand aktiver Forschung. Umso wichtiger ist beim Einsatz von KI-Technologien in der Arbeitswelt daher der Bottom-up-Ansatz: das Einbeziehen möglichst ALLER Beteiligter und das schon ab dem Zeitpunkt der ersten Überlegungen. Nur so kann sichergestellt werden, dass es sich erstens um die richtige Lösung für ein Problem handelt, zweitens den Bedenken der Beschäftigten begegnet wird, drittens wichtiges Praxiswissen in die Entwicklung einfließt und viertens die tatsächliche Anwendung später auch sichergestellt wird.