Hybride Intelligenz

Künstliche Intelligenz (KI) findet ihren Weg in die industrielle Produktion. Die Potenziale, damit Prozesse und Geschäftsmodelle zu optimieren, scheinen groß. KI-Anwendungen lassen sich entlang des gesamten Wertstroms einsetzen – von der Logistik bis in die Fertigungs- und Montageprozesse.

Dennoch halten sich viele Unternehmen bei der Einführung zurück – mit der Begründung, dass Kompetenzen, Ressourcen und technische Voraussetzungen fehlen. Ein genauerer Blick zeigt: Viele Unternehmen wissen nicht, wie sie KI-Projekte starten und diese systematisch und ganzheitlich, über die Technik hinaus, angehen können. Schließlich sind für den auf Materialflüsse fokussierten Produktionsbereich datenintensive Optimierungsansätze im ersten Moment unbekannt.

Zudem stecken viele Unternehmen mitten in Digitalisierungsbestrebungen und haben den kurzfristigen Erfolg noch nicht erreicht. Dadurch besteht Skepsis, die hochkomplex erscheinenden Aufgaben anzugehen, die mit der Einführung von KI-Anwendungen verbunden sind. Dennoch sollten sich produzierende Unternehmen mit den Potenzialen und Chancen von KI-Einsatzfeldern beschäftigen und frühzeitig deren Anwendungsmöglichkeiten eruieren. Denn: Um Materialflüsse und Produktqualitäten weiter zu optimieren, spielen Daten eine große Rolle. Wer zukünftige Potenziale verwirklichen will, muss bereits heute die Voraussetzungen schaffen.

Neben der Frage des systematischen Einführungsprozesses müssen Unternehmen sicherstellen, dass Mitarbeitende die KI-Initiativen mittragen und aktiv unterstützen. Nur so können die KI-Anwendungen im betrieblichen Einsatz die beabsichtigten Nutzenpotenziale verwirklichen.

Zudem sind Unternehmen mehr denn je gefordert, Anwendungen, Prozesse und Interaktionsformen menschzentriert zu gestalten. Nur wenn der Einführungsprozess gemeinsam mit Mitarbeitenden durchlaufen wird, kann gewährleistet werden, dass alle betrieblichen Akteure von den KI-Anwendungen profitieren und sich die notwendige Nutzerakzeptanz einstellt.

Wo Hybride Intelligenz bereits besteht

Hybride Intelligenz bezeichnet die Kombination menschlicher und maschineller Intelligenz. Während des Übergangs gab es große Verwirrung darüber, ob Menschen oder Computer die Hauptakteure hinter sozialen Netzwerken sind, Fakt ist: Menschen werden immer Teil des Systems sein. Es geht nicht darum, Menschen in einem System zu ersetzen, sondern darum, wie die Beiträge von Menschen und Computern optimal integriert werden können.

Am häufigsten wird hybride Intelligenz in den Datensystemen von Unternehmen eingesetzt, hauptsächlich für deren eigene Zwecke. Große Technologieunternehmen verwenden in der Regel eine Kombination aus Mensch und Computer, um Daten zu erstellen, anzureichern und zu validieren. Diese Daten werden genutzt, um weitere Algorithmen für maschinelles Lernen zu trainieren und die Automatisierung schrittweise zu erhöhen.

In den vergangenen Jahren nahmen Verbraucheranwendungen zu, die auf hybride Intelligenz setzen. Besondere Aufmerksamkeit lag bei künstlichen Assistenten (auch: „persönliche Agenten“). Diese erfüllen einfache Aufgaben ähnlich menschlicher Assistenten, z. B. Besprechungen planen, Flüge finden oder Blumen an Freunde liefern.

Voraussetzungen für Hybride Intelligenz

Interaktion von Mensch und Maschine bei Lernprozessen: KI-Systeme sind so zu gestalten, dass Menschen nicht nur den Lern- und Entscheidungsprozess von KI-Systemen verstehen und verfolgen können (d. h. erklärbar und rechenschaftspflichtig), sondern auch eine nahtlose Interaktion von Mensch und Maschine möglich ist.

Multimodale Wahrnehmung und Modellierung: KI-Systeme müssen komplexe Umgebungen sowie menschliche Interaktionen wahrnehmen und interpretieren können. Hierzu müssen KI-Systeme umfassende Systemmodelle aufbauen und pflegen.

Lernförderliche Mensch-Maschine-Interaktion: KI-Systeme, einschließlich Serviceroboter und intelligente Umgebungen, sollen in der Lage sein, mit dem Menschen auf eine lernförderliche Weise zu interagieren.

Gesellschaftliche Orientierung: KI-Systeme sollen die Netzwerkeffekte in komplexen Mensch-Maschine-Systemen modellieren und verstehen, um dadurch individuelle, betriebliche und gesellschaftliche Interessen in Einklang zu bringen.

Rechtliche und ethische Grundlagen für KI-Systeme: Die Gestaltung und Anwendung von KI-Systemen muss kulturelle und gesellschaftliche Kontexte berücksichtigen und mit ethischen Grundsätzen und menschlichen Werten in Einklang stehen. Dies schließt den Respekt vor menschlicher Selbstbestimmung ein.

Gestaltungsfelder für hybride KI

 

Schutz des Menschen

  • Sicherheit und Gesundheitsschutz
  • Datenschutz und Informationssicherheit
  • Diskriminierungsfreiheit
  • Verantwortungsvolle Leistungserfassung
  • Ethische Grundsätze
  • Verantwortung und Haftung

Vertrauenswürdigkeit

  • Qualität der verfügbaren Daten
  • Transparenz, Erklärbarkeit und Widerspruchsfreiheit
  • Usability
  • Systemvertrauen

Funktionsteilung von Mensch und Maschine

  • Angemessenheit und Unterstützung
  • Handlungsträgerschaft und Situationskontrolle
  • Adaptivität, Fehlertoleranz und Individualisierbarkeit

Lernförderliche Arbeit

  • Handlungsspielräume und reichhaltige Arbeit
  • Lern- und Erfahrungsförderlichkeit
  • Kommunikation, Kooperation und soziale Einbindung

Vorteile von Hybrider Intelligenz

Vom wirtschaftlichen Standpunkt aus betrachtet, nutzen menschenzentrierte KI-Lösungen die menschliche Wissenschaft und qualitativ dichte Daten, um tieferer Bedürfnisse, Bestrebungen und Triebkräfte zu verstehen, die dem Kundenverhalten in Ihrem Markt zugrunde liegen. Erweiterte kontextbezogene Analysen kombinieren Daten und Humanwissenschaften, um spezifische Verhaltensinformationen zu liefern. Wenn Analysen auf menschliche Verhaltensweisen und Entscheidungen angewandt werden, zeigen sich Muster. Diese kontextbezogenen Analysen können verbesserte, personalisierte Kundenerlebnisse schaffen. Wenn Unternehmen genau wissen, was ihre Kunden tun und erwarten, können sie klare, fundierte Geschäftsstrategien entwickeln.

  1. Informierte Entscheidungsfindung: Das Ziel menschenzentrierter KI besteht nicht darin, den Menschen zu ersetzen, sondern dessen Fähigkeiten durch eine intelligente, vom Menschen inspirierte Technologie zu erweitern. Wird die Präzision des maschinellen Lernens mit menschlichem Input und menschlichen Werten kombiniert, ermöglicht menschzentrierte KI Unternehmen (insbesondere den Menschen im Unternehmen), fundiertere Entscheidungen zu treffen und klarere Strategien und Lösungen für Herausforderungen zu entwickeln.
  2. Zuverlässigkeit und Skalierbarkeit: Menschenzentrierte KI nutzt menschliche Fähigkeiten als menschliche Denker und ermöglicht die Skalierung von Ideen, um viel größere Datenanforderungen zu erfüllen. KI soll den Menschen helfen, aber ohne menschlichen Input und Verständnis kann sie nur begrenzt helfen. Mit einem auf den Menschen ausgerichteten KI-Ansatz wird ein Teil der Rechenarbeit auf die Schultern der Technologie verlagert, während der emotionale und kognitive Input des Menschen weiterhin genutzt wird. Auf diese Weise können Prozesse und Informationen in größerem Umfang genutzt werden, ohne die Datenintegrität zu beeinträchtigen oder die Ausgaben für Personal zu erhöhen.
  3. Erfolgreichere Software und Produktentwicklung: Durch die Anwendung der Prinzipien der Verhaltenswissenschaft auf die Technologie mittels menschenzentrierter KI sind Entwickler und Produktdesigner in der Lage, das Verhalten und die unterbewussten Muster der Nutzer anzuzapfen, um Produkte und Dienstleistungen zu entwickeln, die zufriedenstellendere, informiertere, bereichernde und – im Falle von Unternehmen wie Instagram oder Spielen – süchtig machende Nutzererfahrungen bieten.

Während die KI-Anwendung zu Produktivitätssteigerungen beiträgt, ist es Aufgabe des Menschen, das Mensch-Maschine-System an volatile Marktbedingungen und flexible Produktionsprozesse anzupassen. Kriterien einer menschengerechten Gestaltung betreffen u. a. den Tätigkeitsinhalt und -umfang des Menschen und den Autonomiegrad der Maschine bei Entscheidungs- und Ausführungsprozessen. Dabei liegt die Entscheidungskompetenz bei ethisch relevanten Fragen grundsätzlich beim Menschen.

In erfolgreichen KI-Anwendungen gelingt es, produktions- und informationstechnisches Wissen systematisch zu verbinden, so dass sich die Effizienz von Prozessen, Maschinen und Anlagen steigern lässt. Erste betriebliche Erfahrungen zeigen, dass die Implementierung von KI-Anwendungen ein umfassendes Prozess- und KI-Wissen erfordert. Ein wichtiges Anliegen ist demnach, das über viele Jahre entstandene, domänenspezifische Erfahrungswissen der Mitarbeitenden mit KI-Funktionen zusammenzuführen. Darüber hinaus ist es wichtig, menschliche Leistungsfaktoren wie Akzeptanz, Praktikabilität und Lernförderlichkeit zu beachten. Bleiben diese Kriterien unberücksichtigt, so verringert sich das Rationalisierungspotenzial der KI-Anwendungen; dieses ist allerdings unabdingbar, wenn Unternehmen ihre Produktivität steigern wollen.

Wie hybride Intelligenz im Unternehmen implementiert wird

Den Menschen in den Kreislauf einbeziehen

Der Human-in-the-Loop-Ansatz geht Hand in Hand mit der menschenzentrierten KI. Das bedeutet, dass der Mensch während des gesamten Trainings-, Test- und Optimierungsprozesses der Erstellung eines ML-Modells beteiligt ist. So kann der Mensch beispielsweise die Trainingsdaten beschriften, die dem Modell dabei helfen, zu lernen, welche Merkmale es erkennen soll. Der Mensch kann auch die Genauigkeit der Vorhersagen des Modells überprüfen und dem Modell Feedback geben, wenn es einen Fehler macht. Mit anderen Worten: Der Mensch ist Teil einer kontinuierlichen Feedbackschleife mit dem Modell.

Inzwischen gibt es fortschrittlichere Tools, die die Zusammenarbeit zwischen Mensch und Maschine noch weiter verbessern. So können Algorithmen während des Annotationsprozesses eine erste beste Vermutung oder Hypothese für das gegebene Label liefern. Der Kommentator kann diese dann nutzen, um sein eigenes Urteil zu fällen. Die Algorithmen können auch die Beurteilungen der Kommentatoren vor der Übermittlung des Auftrags überprüfen. Diese Art von Tools ermöglicht es dem Annotator und dem Algorithmus, so zusammenzuarbeiten, dass die Genauigkeit und Effizienz der Arbeit maximiert wird.

Menschliche und algorithmische Vorurteile beachten

Das Bewusstsein für Vorurteile ist bei der KI-Entwicklung unglaublich wichtig, um sicherzustellen, dass Sie sich nicht zu sehr auf das menschliche oder maschinelle Urteilsvermögen verlassen. Denken Sie darüber nach, welche Vorurteile Ihr Team unbeabsichtigt in Ihren Algorithmus einbringen könnte, und planen Sie Schritte zur Schadensbegrenzung, um dies zu verhindern. Algorithmen können nützlich sein, um menschliche Schwachstellen zu kompensieren, aber stellen Sie sicher, dass Sie auch die Ausgabe des Modells konsequent auf Verzerrungen überwachen – Maschinen können manchmal menschliche Verzerrungen verstärken.

Vielfältige Teams bilden

Aufbauend auf dem vorherigen Punkt ist KI tendenziell weniger voreingenommen, wenn sie von unterschiedlichen Teams entwickelt wird. Homogenere Teams haben oft ähnliche blinde Flecken, Vorurteile und andere Lücken, die sich im Modell widerspiegeln könnten. Dies gilt nicht nur für Entwickler. Es ist von entscheidender Bedeutung, dass die Personen, die Sie für die Kommentierung Ihrer Daten auswählen, zumindest eine demografische und je nach Anwendungsfall auch eine geografische Vielfalt aufweisen. Dadurch wird der Prozess für eine größere Vielfalt an Meinungen geöffnet, was zu einer integrativeren KI führt.

An den Kunden denken

Der menschenzentrierte Ansatz beruht darauf, dass die menschliche Erfahrung im Mittelpunkt steht. Wenn Sie ein KI-Produkt entwickeln, soll das Endergebnis das Leben Ihrer Kunden verbessern und positiv beeinflussen. Sie möchten genau verstehen, wer Ihre Kunden sind (dazu gehören u. a. ihre demografischen Daten, ihr Hintergrund, ihre Bedürfnisse und ihr Standort) und wie sie Ihre Technologie nutzen werden. Die Einbeziehung einer Teilmenge Ihrer Endnutzer in die Test- und Validierungsprozesse der Modellerstellung kann eine gute Möglichkeit sein, ihr Feedback zu erfassen. Sie denken vielleicht, dass Ihr Produkt auf eine bestimmte Art und Weise verwendet wird, aber Sie müssen feststellen, dass die Endnutzer es ganz anders nutzen. Die einzige Möglichkeit, dies herauszufinden, ist, es direkt mit ihnen zu testen.

Autonomie mit Bedacht einsetzen

Es ist wichtig, darauf hinzuweisen, dass die Autonomie von Maschinen manchmal ihren Platz in der KI hat. Es gibt einige wenige Anwendungsfälle, in denen es ideal ist, wenn eine Maschine die volle Kontrolle über eine Entscheidung hat, insbesondere in Fällen, in denen es um die Sicherheit von Menschen geht. Ein Beispiel sind autonome Fahrzeuge. Menschliche Fahrer sind anfällig für Unfälle (jedes Jahr sterben weltweit über eine Million Menschen bei Autounfällen) und treffen am Steuer generell schlechte Entscheidungen. Völlig autonome Fahrzeuge versprechen effizientere und sicherere Entscheidungen anstelle des menschlichen Fahrers und könnten ein Anwendungsfall sein, bei dem die Autonomie in erster Linie begrüßt werden sollte. Bis dies Realität wird, könnte eine Mischung aus menschlicher und maschineller Intelligenz eine Möglichkeit sein, die Straßen für alle sicherer zu machen. Mit anderen Worten, maschinelle Autonomie kann in sensibleren Anwendungsfällen sinnvoll eingesetzt werden.

Beispiele für Hybride Intelligenz

Roboter-Autos: Selbstfahrende Autos sind ein gutes Beispiel, um den „Mensch-in-der-Schleife“ zu verstehen. Kluge Entwickler haben viele Jahre damit verbracht, Autos das autonome Fahren beizubringen. Und der technologische Stand ist heute sehr gut – aber nicht gut genug. Selbst 99 Prozent Sicherheit bedeuten immer noch, dass in 1 Prozent der Fälle Menschen sterben könnten. Der tödliche Unfall eines Tesla im Autopilot-Modus im Mai 2016 zeigte auf dramatische Weise, was das bedeuten könnte. Die meiste Zeit fährt der Autopilot allein. Aber das Auto besteht darauf, dass der Fahrer das Lenkrad festhält. Und immer dann, wenn das Sensorsystem Zweifel hegt, was gerade passiert, delegiert es die Kontrolle an den menschlichen Fahrer. Das Auto fährt tatsächlich die meiste Zeit selbständig. Aber es braucht Menschen als Retter in der Not. Und in besagtem Unfall versagte sowohl der Autopilot als auch der als Rückfallposition geplante Fahrer. Menschen sind eben schlechte Backups.

Gesichtserkennung: Facebooks Algorithmus für das Erkennen von Gesichtern funktioniert frappierend gut. Wenn ein Foto verfügbar ist, erkennt er mit 97,25 Prozent Genauigkeit die Personen auf dem Bild. Im Zweifel bittet er den Benutzer selbst, die vorgeschlagene Auswahl zu bestätigen. Ist das Vertrauen zu gering oder kann der Algorithmus das Gesicht nicht zuordnen, muss der Benutzer das Foto selbst verschlagworten. Durch diesen Dialog entsteht Information, die den Algorithmus trainiert, es künftig besser zu machen. Und je mehr Daten verfügbar werden, desto eher wird der Algorithmus die nächste Nuss knacken.

Schlaue Radiologen: Radiologen üben lange, bis sie den Schatten eines Lungenkarzinoms entdecken. Dennoch gelang das dem IBM Watson Oncology besser als jedem Spezialisten. Ein Vergleich von Mensch und Maschine zeigte: Der Algorithmus traf zu 90 Prozent die richtige Diagnose, Radiologen dagegen nur in der Hälfte aller Fälle. Also sind selbst bei maschineller Diagnose 10 Prozent der Aufnahmen unsichere Kandidaten. Und damit sind sie reif für das Abwägen durch den erfahrenen Experten. Eine andere Studie zur Diagnose von Brustkrebs zeigte, dass die Kombination von Arzt und Software die Qualität der Einzeldiagnosen übertrifft: Die Maschine entdeckte nur 92,5 Prozent der Karzinome, auch der Radiologe kam nur auf 96,6 Prozent. Beide zusammen steigerten die Trefferquote aber auf 99,5 Prozent.

Entscheidungsautomation: Wie lässt sich das Verhältnis von Mensch und Maschine systematisch beschreiben? Bereits in den 1950er Jahren beschäftigten sich Ingenieure und Wissenschaftler damit, wie zunehmende Automation das Verhältnis von Mensch und Maschine verändern würde. Deshalb stellte sich von Anfang an die Frage, wie man Automation operationalisieren könnte. Daraus entstand der Begriff von „Stufen der Automation“ („Level of Automation“), die man erklimmen müsse. Eine einzelne Stufe der Automation beschreibt, wie genau eine Aufgabe (manuell oder kognitiv) zwischen Mensch und Maschine aufgeteilt würde. In Produktionsprozessen beispielsweise definiert sich Automation als „the progressively transferring regulating and controlling functions from humans to technical systems“. Der Zweck von KI ist also die Automation des Geistes, die „Automation des Entscheidens“ lediglich eine konkrete Form, diesen Zweck zielgerichtet zu operationalisieren.

Kognitive Stärken des Menschen

  • unerwartete Stimuli wahrnehmen
  • neue Lösungen zu Problemen entwickeln
  • mit abstrakten Problemen umgehen
  • sich verändern können
  • Beobachtungen generalisieren
  • aus Erfahrungen lernen
  • schwierige Entscheidungen bei unvollständiger Datenlage

Kognitive Stärken der Maschine

  • wiederholbare Aufgaben akkurat ausführen
  • große Mengen von Daten speichern
  • gespeicherte Daten zuverlässig wiederfinden
  • mehrere Aufgaben parallel ausführen
  • große Rechenleistung
  • einfache Berechnungen schnell durchführen
  • Routine-Entscheidungen schnell treffen

Maschinen werden zunehmend besser darin, die Denkprozesse von Menschen zu simulieren. Aber zu entscheiden ist eine Tätigkeit, die weit mehr braucht: Erfahrung, Intuition, Hingabe. Für diesen Zugang zu Entscheidungen gibt es bisher keine plausiblen theoretischen Modelle, die deren Dynamik beschreiben, geschweige denn technische Implementierungen.

Herausforderungen hybrider Intelligenz

Um mit Künstlicher bzw. Hybrider Intelligenz erfolgreich zu sein, bedarf es einer langfristigen Strategie für deren Entwicklung und Nutzung. Unternehmen, die KI wirklich annehmen, werden ihre Arbeitsweise ändern. Sie werden Mitarbeiter mit einbeziehen, bestehende Aufgabenbereiche neu definieren und neue schaffen. Das kann nicht über Nacht geschehen. KI ist ein langfristiges Unterfangen.

Da KI auf Daten basiert, benötigen Unternehmen hochwertige, lückenlose Daten, um den Erfolg zu sichern. Der wichtige Schritt, Daten in Ordnung zu bringen, kann nicht ausgelassen werden bei der Erwartung, dass ein direkter Übergang zur KI erfolgt und Ergebnisse erzielt werden.

Andererseits dürfen sich Unternehmen nicht von der Suche nach vollständig sauberen Daten ablenken lassen – auch das ist unrealistisch. Sie müssen in der Lage sein, Ihre Geschäftsbereiche zu trennen, um eine ganzheitliche Sicht auf Ihre Daten zu erhalten, die für KI entscheidend ist. Ganz wichtig dabei ist die Berücksichtigung von ethischen Problemen, die bei der Datennutzung auftreten können.

Fähigkeiten von Designer und Entwickler berücksichtigen

Unternehmen müssen ihre Design-Konstruktionen überprüfen und wahrscheinlich neu überdenken, denn die Interaktion über einen Bildschirm oder ein interaktives Voice-Response-System (IVR) unterscheidet sich von der Verwendung eines Gesprächsmodus. Sie würden zum Beispiel nicht einfach die Schnittstelle eines IVR-Systems in einen intelligenten Heimassistenten übertragen. Damit dies funktioniert, brauchen Ihre Designer neue Fähigkeiten – und neue Denkansätze.

Bei der Implementierung von Hybride Intelligenz Ansätzen in Ihrem Unternehmen müssten Sie auch Kultur und potenzielle Datenschutz- und Sicherheitsprobleme berücksichtigen.

Ein strategischer Ansatz für HI beinhaltet die Schaffung eines Konsenses, oft durch die Identifizierung von Bereichen im Unternehmen mit dem geringsten „kulturellen Lärm“. Man darf nicht vergessen, dass Kultur und Veränderungsmanagement wichtige Erfolgsfaktoren für HI sind.

Empfehlenswert ist es, einen Rat für digitale Ethik oder eine andere ähnliche Struktur einzurichten, um potenzielle Verzerrungen in KI-Algorithmen sowie Datenschutz- und Sicherheitsfragen, die bei KI/HI entstehen können, behandeln zu können. Der Rat sollte sich ausdrücklich nicht nur damit befassen, wie man alle Daten miteinander verbindet, sondern ob diese Daten verbunden werden müssen. Bedenken – ethische, wettbewerbsrechtliche, regulatorische oder andere – können es erforderlich machen, einige Daten von der der KI-Plattform auszuschließen.

Zukünftig werden in vielen sensiblen Bereichen KI-Systeme den Menschen immer besser unterstützen. Aber der Mensch wird weiterhin die letzte Entscheidung treffen. Allerdings sind Realismus und Bescheidenheit wichtig, hundertprozentige Sicherheit ist nicht erreichbar. Bei jedem Arzt und auch bei jedem KI-System, immer wird eine Fehlerquote bleiben. Damit kann man nur umgehen, wenn dies in einem zivilgesellschaftlichen Dialog offen diskutiert wird.