Zusammenfassung
Neue technologische Möglichkeiten und künstliche Intelligenz ermöglichen in der Mensch-Technik Interaktion immer neue und zunehmend anspruchsvollere Assistenzfunktionen. Dieser Beitrag widmet sich dabei den Fragen, welche Assistenz und wieviel Assistenz sinnvoll ist. Die aktuelle Forschung zeigt, dass die Beantwortung dieser Fragen nicht trivial ist, denn technische Assistenz muss kognitiv angemessen und in der Interaktion sinnvoll eingebettet sein, um Nutzern tatsächlich bei der Erfüllung ihrer Aufgaben zu helfen. Im vorliegenden Buchkapitel liegt daher der Fokus auf der Analyse und der kritischen Reflexion genau dieser Interaktion zwischen menschlicher und künstlicher Intelligenz. Es reflektiert die Rollenverteilungen und die Wirkungen auf den jeweils anderen Interaktionspartner und zeigt auf, welche neuen Forschungsfragen in diesem Kontext diskutiert und beantwortet werden müssen, um ein sich erweiterndes Zusammenwirken zwischen Mensch und Technik gewinnbringend zu gestalten.
You have full access to this open access chapter, Download chapter PDF
Similar content being viewed by others
Schlüsselwörter
- Mensch−Maschine Interaktion
- Assistenzsystem
- Grad von Automation
- Automatisierung
- kognitive Empathie
- Emotionserkennung
- Interaktionsdynamik
1 Einleitung
Die technologischen Möglichkeiten in der Mensch-Technik Interaktion haben sich mit dem Fortschritt der Computertechnik in den letzten Jahrzehnten enorm vergrößert: Dies zeigt sich nicht nur in der Geschwindigkeit, mit der Daten übertragen werden können, und der Datenmenge, die gespeichert werden kann, sondern auch in neuartiger und kostengünstiger Sensorik und in neuen Funktionalitäten, die technische Systeme zur Verfügung stellen können (vgl. Pan 2016; Yurish 2010). So erfassten technische Systeme in den 1950er Jahren hauptsächlich spezielle Eingabedaten, stellten diese dar und setzten sie in mechanische Aktionen um (Parasuraman und Wickens 2008). In den 1970er Jahren wurden zunehmend Funktionen der Informationsverarbeitung implementiert (vgl. Wiener und Curry 1980). Besonders deutlich zeigte sich diese Funktionsentwicklung in der Luftfahrt (vgl. Manningham 1997): Ursprünglich steuerten Piloten die Lage des Flugzeugs im Raum. Es gab also eine direkte Interaktion zwischen Pilot und Flugzeug, die mit der Einführung des Autopiloten unterbrochen wurde. Die Piloten bedienten nun den Autopiloten, der die Lage des Flugzeugs im Raum steuerte. Heutzutage programmieren Piloten das sogenannte Flight Management System, welches wiederum den Autopiloten steuert. Mit der Einführung des Autopiloten und des Flight Management Systems verlor also der Mensch die direkte Nutzerkontrolle. Stattdessen stieg die Systemkomplexität an und die Teilaufgaben, die durch Maschinen erledigt werden können, werden immer zahlreicher. Entsprechende moderne Mensch-Maschine Schnittstellen nutzen daher auch mehr und multiple Modalitäten (Turk 2014). So können nun etwa Fingergesten, Körperbewegungen, Gesichtsausdrücke, Sprache u. v. m. technisch erkannt und mit anspruchsvollen intelligenten Algorithmen verarbeitet werden. Im vorliegenden Buchkapitel liegt der Fokus auf der Analyse und der kritischen Reflexion genau dieser Interaktion zwischen menschlicher und künstlicher Intelligenz. Es reflektiert die Rollenverteilungen zwischen menschlicher und künstlicher Intelligenz und die Wirkungen auf den jeweils anderen Interaktionspartner und zeigt auf, welche neuen Forschungsfragen in diesem Kontext diskutiert und beantwortet werden müssen, um ein sich erweiterndes Zusammenwirken zwischen Mensch und Technik positiv zu gestalten.
2 Künstliche Intelligenz: Assistenz, Automation und Autonomie
Intelligenz gilt seit vielen Jahrzehnten als die Fähigkeit des Menschen, komplexe Denkleistungen zu vollbringen und entsprechende Probleme zu lösen (Binet und Simon 1905; Deary et al. 2010; Guthke 1996). Wird der Mensch als Maschine interpretiert (vgl. Dörner 2004), lässt sich das Konstrukt der Intelligenz auf technische Systeme übertragen. Es ist daher nicht überraschend, dass Turing (1950) Intelligenz als die Fähigkeit eines Systems definierte, auf ein gegebenes Problem zu reagieren bzw. mit einer komplexen Situation adäquat umzugehen. Ein technisches System gilt also als künstlich intelligent, wenn es Leistungen in Analogie zum menschlichen Denken realisieren kann (Nilsson 2009). Demnach müssen künstlich intelligente Systeme Symbole verarbeiten, interne Weltmodelle entwickeln, Handlungspläne mental simulieren und ggf. umsetzen, mit Unsicherheiten und bisher unbekannten Situationen umgehen sowie Entscheidungen mehr oder weniger autonom treffen können (vgl. Rasmussen et al. 1994).
Insbesondere der Begriff der Autonomie wird auf unterschiedliche Art und Weise verwendet (s. auch Feil 1987). So definierte zum Beispiel Kant (1785) Autonomie als Selbstbestimmung im Rahmen einer übergeordneten Moral. Ein autonomes System bestimmt demnach unabhängig und selbst, was zu tun ist, und nutzt für seine Entscheidung moralische Grundsätze. Von moralischen Maschinen ist der Stand der Technik jedoch weit entfernt, und so ist autonom technisch meist eher im Sinne einer automatisierten, d. h. ohne menschlichen Eingriff durchgeführten Erledigung von Teilaufgaben definiert. Ein automatisiert fahrendes Fahrzeug führt zum Beispiel die Fahraufgabe in bestimmten Situationen selbstständig durch und fährt ohne menschliches Eingreifen (SAE 2018). Eine Motivation, die der Entwicklung solcher Systeme zugrunde liegt, ist die Erhöhung der Verkehrssicherheit bzw. im Allgemeinen die Minimierung des Einflusses der Variabilität menschlicher Leistung auf die Erfüllung der Aufgabe (Bainbridge 1983; Maurer 2015; Sarter et al. 1997). Da der Mensch allerdings nicht immer aus der Regelschleife entfernt werden konnte und somit vollständig automatische Systeme für komplexe Aufgaben in einer offenen Welt nicht implementiert werden konnten, fokussierten sich Forscher auf die Entwicklung von hochautomatisierten Systemen (s. Bainbridge 1983; Sarter et al. 1997).
Ein Automationssystem nutzt die immer umfassender vorhandene künstliche Sensorik, um Daten aus der Umgebung zu erfassen, es verarbeitet die Daten, trifft Entscheidungen und greift auf Aktoren zurück, um mechanische Handlungen umzusetzen. Es kommuniziert außerdem mit Menschen (Moray et al. 2000). Je selbstständiger das System eine Aufgabe erledigt, also mit weniger Eingriffen des Menschen, desto höher ist der Grad der Automation des technischen Systems (vgl. Parasuraman et al. 2000). Auch hier galt lange die Maxime, Systeme mit einem möglichst hohen Automationsgrad zu entwickeln (Bainbridge 1983; Sarter et al. 1997). Der Mensch sollte die Systeme idealerweise nur überwachen und rechtzeitig und korrekt eingreifen, wenn das System mit einer Aufgabe konfrontiert wurde, für die dieses nicht programmiert wurde oder wenn es in einen Fehlerzustand geriet (Bainbridge 1983). Auch hiermit sollte der Einfluss der Variabilität menschlicher Leistung reduziert werden. Es wurde also vom Mensch, der als nicht leistungsstark genug eingeschätzt wurde, erwartet, die Situation zu lösen, wenn das technische System nicht mehr in der Lage war, dies selbst zu tun. Dieses Paradoxon fasste Bainbridge (1983) unter dem Begriff der Ironie der Automation zusammen.
Die praktische Erfahrung mit hoch automatisierten Systemen zeigte, dass der Mensch die passive Rolle nicht ausfüllen konnte (Jipp 2016b; Sarter et al. 1997): Die menschliche Leistungsfähigkeit brach innerhalb der ersten 5–15 min ein, wenn – wie bei Überwachungsaufgaben der Fall – Daueraufmerksamkeit gefordert wurde (vgl. Helton et al. 2007). Zu Beginn der Aufgabe stieg die Beanspruchung an (vgl. Warm et al. 2015), dann verlor der Mensch sein Task Engagement und schließlich brach dessen Leistung ein (Szalma et al. 2004; Warm et al. 2008). Langfristig degradierten manuelle Fertigkeiten sowie die mentalen Modelle des Menschen über die Aufgabe und die Funktionsfähigkeit der technischen Systeme (vgl. Kessel und Wickens 1982; Norman et al. 1988). Ein hoher Erfüllungsgrad der Aufgabe konnte daher mit hoch automatisierten Systemen, die Mensch-Maschine Interaktionen bzw. einen menschlichen Eingriff weitgehend zu vermeiden versuchen, nicht erreicht werden.
Vor diesem Hintergrund bildeten sich komplexere Sichtweisen im Sinne eines soziotechnischen Systemansatzes, die technische Systeme so zu entwickeln versuchten, dass diese optimal mit Menschen interagieren (Billings 1997; Trist und Bamforth 1951). Die Aufgabe, die Mensch und Technik erledigen sollten, wurde dafür in generische Funktionen untergliedert (vgl. Endsley und Kaber 1999; Kantowitz und Sorkin 1987; Parasuraman und Riley 1997; Parasuraman et al. 2000), sodass eine feinkörnigere Analyse und Gestaltung von Mensch-Maschine Interaktionen möglich wurde. Von einem stark vereinfachten Modell der menschlichen Kognition ausgehend, unterschieden zum Beispiel Parasuraman et al. (2000) die Funktionen
-
Informationsaufnahme,
-
Informationsverarbeitung,
-
Entscheidungsfindung und
-
Umsetzung in der Handlung.
Dabei konnte jede dieser Funktionen zu einem unterschiedlichen Grad automatisiert werden. Je größer die Rolle des Menschen war, desto geringer war der Grad der Automation dieser Funktion. Jipp und Ackerman (2016) stellten daran anschließend den Grad der Automation als Quadrupel dar, in dem die Einträge den jeweiligen Grad der vier genannten Funktionen angeben. So zeichnet sich zum Beispiel ein technisches System mit dem Grad der Automation (niedrig, hoch, hoch, niedrig) dadurch aus, dass der Mensch die Informationsaufnahme und die Umsetzung in eine Handlung übernimmt. Das technische System verarbeitet die Informationen und entscheidet über eine geeignete Handlung. Das System gilt dann als Assistenzsystem, solange es einen niedrigen Grad der Handlungsautomation nutzt. In der Praxis begegnen uns insbesondere Informationsassistenzsysteme überall; sie sind jedoch in sehr unterschiedlichem Maße interaktiv und lernfähig (Steil und Wrede 2019). Durch die unterschiedlichen Grade der Funktionsautomation und insbesondere durch die wechselseitige Anpassung von Menschen und adaptiven, lernfähigen technischen Systemen entstehen dann hybride Systeme, in denen menschliche und künstliche Intelligenz zusammenwirken, um auf Anforderungen ihrer Umwelt angemessen und flexibel zu reagieren. Solche Systeme stehen heute im Fokus großer Forschungsprogramme (BMBF, Mensch-Technik Interaktion) und sind mitentscheidend für die Akzeptanz neuer Technologien für die Anwender.
3 Zur Interaktion von menschlicher und künstlicher Intelligenz
Eine naive Betrachtung des Zusammenwirkens von menschlicher und künstlicher Intelligenz könnte davon ausgehen, dass mehr oder höhere Automation zu besserer Interaktion und Aufgabenerfüllung führt. In zahlreichen Evaluationsstudien wurde daher untersucht, inwieweit menschliche und künstliche Intelligenz gemeinsam in der Lage sind, adäquat auf eine Frage zu reagieren (vgl. Brandenburger et al. 2019; Calhoun et al. 2009; Endsley und Kiris 1995; Kaber et al. 2000; Manzey et al. 2011; Manzey et al. 2012; Moray et al. 2000). Die Ergebnisse variieren und widersprechen sich zum Teil deutlich: So berichteten zum Beispiel Manzey et al. (2011), dass sich die Leistung von Studierenden in einer medizinischen Aufgabe verschlechterte, wenn der Automationsgrad nach der Taxonomie von Jipp und Ackermann (2016) von mittel, mittel, mittel, mittel auf mittel, mittel, niedrig, niedrig sank. Umgekehrt berichteten Calhoun et al. (2009), dass Piloten ihre Aufgabe besser erledigten, wenn der Automationsgrad von hoch, hoch, mittel, niedrig auf hoch, hoch, niedrig, niedrig sank. Die Inkonsistenz der Effekte wurde im Rahmen von Meta-Analysen über verschiedene Aufgaben hinweg bestätigt (Onnasch et al. 2014; Wickens et al. 2010).
Unterschiede in menschlicher, kognitiver Leistungsfähigkeit können diese inkonsistenten Ergebnisse erklären (Jipp 2016a; Jipp und Ackerman 2016): Im Vergleich der Studien von Manzey et al. (2011) und Calhoun et al. (2009) ist nämlich auch zu beachten, dass nicht nur die Automationsgrade und Aufgaben variierten, sondern auch die Teilnehmergruppen, denn Studierende und Piloten unterscheiden sich sicherlich auch in ihrem kognitiven Fähigkeitsprofil voneinander. Solche Differenzen können Effekte von Automationssystemen auf Leistungsmaße moderieren. Dies ist der Fall, da die Komplexität der menschlichen Aufgabe steigen kann, wenn der Grad der Informationsverarbeitungs- und der Entscheidungsfindungsautomation steigt: Der Mensch muss dann nämlich nicht nur ein mentales Modell über die eigene Aufgabe, sondern auch ein Modell des technischen Systems und dessen Aufgabe im Arbeitsgedächtnis aktiv halten (Jipp und Ackerman 2016). Dieses Modell wird komplexer, wenn kognitive Funktionen wie Informationsverarbeitung und Entscheidungsfindung automatisiert werden (für Details: Jipp und Ackerman 2016; Kaber et al. 2005). Das Arbeitsgedächtnis und die menschliche Informationsverarbeitungskapazität – gemäß des Berliner Intelligenzstrukturmodells ein Faktor der menschlichen Intelligenz (Jäger 1984) – können also stärker belastet werden.
Den potenziellen Effekt der stärkeren Belastung der Arbeitsgedächtniskapazität und der menschlichen Informationsverarbeitungskapazität kann das Elaboration Likelihood Modell von Petty und Cacioppo (1986) erklären:
-
Menschen, die eine geringere Arbeitsgedächtniskapazität sowie eine niedrigere Informationsverarbeitungskapazität haben, vermeiden kognitive Anstrengung, bauen das mentale Modell mit einer geringeren Wahrscheinlichkeit auf und wenden einfache Heuristiken zur Erledigung ihrer Aufgabe an (vgl. Atwood und Polson 1976).
-
Menschen, die eine höhere Arbeitsgedächtniskapazität sowie eine höhere Informationsverarbeitungskapazität haben, verarbeiten die zusätzlichen Informationen, entwickeln das mentale Modell und erreichen mit einer höheren Wahrscheinlichkeit eine geringere Fehlerwahrscheinlichkeit.
In Folge dieser theoretischen Überlegungen untersuchten also Jipp (2016a) und Jipp und Ackerman (2016) die Hypothesen,
-
dass Personen mit höheren kognitiven Fähigkeiten eine bessere Leistung liefern, wenn sie eine Aufgabe mit einem technischen System erledigten, welches einen höheren Grad an Informationsverarbeitungs- und Entscheidungsfindungsautomation besitzt.
-
dass Personen mit niedrigeren kognitiven Fähigkeiten eine bessere Leistung liefern, wenn sie die Aufgabe mit einem technischen System erledigten, welches einen niedrigeren Grad an Informationsverarbeitungs- und Entscheidungsfindungs-automation besitzt.
Erfasst wurden die individuellen Unterschiede mit standardisierten Testverfahren (vgl. Jäger et al. 1997). Die Autoren konnten die Hypothesen in zwei unabhängigen Studien in einer Fluglotsensimulationsaufgabe empirisch bestätigen. Zusammenfassend bedeutet dies also, dass menschliche und künstliche Intelligenz zwar gemeinsam eine Aufgabe erledigen können, das Zusammenwirken aber essenziell davon abhängt, inwieweit die menschliche und künstliche Intelligenz aufeinander und auf die zu erledigenden Aufgaben abgestimmt sind.
4 Menschliche und künstliche Intelligenz im Gleichgewicht: Eine Funktion kognitiver Empathie?
Eine adäquate Arbeitsteilung zwischen menschlicher und künstlicher Intelligenz lässt sich auf verschiedene Arten und Weisen erreichen: Einerseits kann die menschliche Intelligenz an die künstliche Intelligenz „angepasst“ werden. Methoden dafür können Personalauswahl und Training sein. Im beruflichen Kontext könnte mithilfe von Personalauswahl dafür gesorgt werden, dass nur Personen mit einem bestimmten Fähigkeitsprofil für die Ausübung eines Berufs mit einem technischen System mit einem bestimmten künstlichen Intelligenzlevel zugelassen werden (vgl. Krause 2017). Weiter könnte adäquates Training im Umgang mit künstlich intelligenten Systemen zu einem Gleichgewicht zwischen menschlicher und künstlicher Intelligenz führen (vgl. Robst 2007). Die Notwendigkeit einer solchen Auswahl oder eines solchen Trainings ist jedoch in gewissem Sinne paradox, ist doch eines der großen Versprechen technischer Assistenz, dass mehr Menschen mit weniger Kenntnissen mehr Aufgaben erfüllen können.
Andererseits könnten künstlich intelligente Systeme über einen variablen Automationsgrad verfügen und sich somit an die kognitive Leistungsfähigkeit des Menschen anpassen (vgl. Hancock et al. 1985). Zur Realisierung dieser Anpassung sind verschiedene Strategien möglich:
-
Adaptierbare Systeme nutzen speziell entwickelte Interfaces und überlassen dem Menschen die Einstellung des adäquaten Automationsgrads (vgl. Miller und Parasuraman 2007; Parasuraman et al. 2005).
-
Adaptive Systeme nutzen Algorithmen, die die Leistungsfähigkeit des Menschen messen oder vorhersagen und darauf aufbauend den Automationsgrad ableiten, mit dem die bestmögliche Leistung erreicht wird (vgl. Hancock und Chignell 1988; Parasuraman et al. 1990; Scerbo 1996, 2001).
-
Eine Realisierung adaptiver Systeme sind lernende Systeme. Sie variieren und personalisieren die Arbeitsteilung je nach der spezifischen Interaktionshistorie des Systems mit den Nutzern und bilden ein Modell der Nutzer, aufgrund dessen Vorhersagen über das zukünftige Verhalten möglich sind. Dies ist ein weiteres der vielen großen Versprechen der Verbindung von künstlicher Intelligenz mit technischen Assistenzsystemen (Steil 2019).
Prinzel et al. (2000) demonstrierten beispielsweise den Wert eines adaptiven Systems. Deren technisches System erfasste Signale eines Elektroenzephalogramms (EEG), um das aktuelle Beanspruchungsniveau der Bediener zu diagnostizieren. Je nach aktuellem Beanspruchungsniveau wurde dann der Automationsgrad gesenkt oder erhöht, um ein optimales Beanspruchungsniveau beim Menschen zu erreichen. Damit balancierte das System das menschliche Beanspruchungsniveau und sollte somit langfristig eine hohe Leistungsfähigkeit des Menschen erreichen. Trotz der positiven Evaluationsergebnisse kann der Ansatz der adaptiven Systeme kritisiert werden:
-
Erstens determiniert nicht nur die unmittelbare Beanspruchung die zukünftige, menschliche Leistung. Weitere affektive, kognitive und behaviorale Zustände, die ebenfalls prädiktiv für die zukünftige Leistung sein können, werden bei adaptiven Systemen kaum berücksichtigt (vgl. Jeon 2015).
-
Zweitens lässt sich ein technisches System nicht nur durch dessen Grad der Automation charakterisieren. Je nach Anwendungskontext kann es durchaus Sinn ergeben, andere Charakteristika – wie zum Beispiel die Art und Weise der Kommunikation mit Menschen – anzupassen (vgl. Hayes und Miller 2010).
Es ist daher nicht überraschend, dass das Konzept der adaptiven Systeme generalisiert und das psychologische Konzept der Empathie auf technische Systeme übertragen wurde (vgl. Ihme et al. 2018b; Tews et al. 2011).
Empathie beschreibt die (menschliche) Fähigkeit, Gedanken, Emotionen, Einstellungen anderer Personen zu erkennen und zu verstehen (Hall und Bernieri 2001). Emotionale Empathie ist dabei die Fähigkeit zu fühlen, was Andere fühlen (Ekman 2007). Kognitive Empathie hingegen beschreibt die Fähigkeit, die Emotionen, Gedanken und Absichten anderer Menschen zu erkennen (Hall und Bernieri 2001). Insbesondere höhere Maße an kognitiver Empathie führten zu besseren Ergebnissen in diversen sozialen Interaktionssettings (z. B. in der medizinischen Versorgung bei Fields et al. 2011 und Kaplan et al. 2012). Die Hoffnung ist, dass diese positiven Effekte auch von technischen Systemen erreicht werden, wenn diese kognitiv empathisch agieren können (Ihme et al. 2018b; Tews et al. 2011).
Die kognitive Empathiefähigkeit von technischen Systemen beinhaltet das Erkennen und Identifizieren von emotionalen Artikulationen von Menschen sowie die Berücksichtigung dieser Reaktionen in den eigenen Entscheidungsmechanismen über mögliche Handlungen (z. B. Ihme et al. 2018b; Manzeschke und Assadi 2019). Die Schwierigkeiten in der Realisierung dieser Empathiefähigkeit sind aber nicht zu unterschätzen: Die Systeme müssen zunächst die Artikulationen identifizieren und interpretieren können. Sie müssen aber auch mögliche Ursachen für die Artikulationen identifizieren können, um erstens beurteilen zu können, ob der aktuelle Zustand der Nutzer und Bediener relevant für die Interaktion mit den Systemen ist und um zweitens mögliche Handlungen ableiten zu können. Basierend auf diesen Informationen müssen sie dann das eigene Verhalten adäquat anpassen können (s. Ihme et al. 2018b). Die Entwicklung solch kognitiv empathischer Systeme steht sicherlich noch am Anfang und ist vielleicht auch insgesamt unrealistisch.
Was jedoch zunehmend zur Verfügung steht, sind Algorithmen, die bestimmte emotionale Zustände von Nutzern durch die Interpretation von Sensordaten erkennen können, beispielsweise durch Analyse der Sprache und Sprachsignale oder durch Kameradaten in Fahrzeugen. Letztere werden beispielsweise verwendet, um Veränderungen in der Gesichtsmuskelaktivierung zu erkennen und darauf aufbauend das aktuelle Frustrationsniveau von Fahrern zu diagnostizieren (vgl. Ihme et al. 2018a, b). Dies bedeutet, dass ein Fahrzeug zwar erkennen kann, ob der Fahrer frustriert ist oder nicht. Solange dem System aber keinerlei Wissen darüber zur Verfügung steht, ob diese Frustration für die aktuelle Aufgabe des Fahrers relevant ist oder in Zukunft relevant sein wird, und wie eine potenziell negative Auswirkung verhindert werden kann, ist das Wissen wenig relevant. Dies bedeutet, es müssten weitere Algorithmen zur Verfügung stehen,
-
die mindestens erkennen könnten, ob die Frustration aufgabenrelevant ist oder nicht,
-
die die Entwicklung des Frustrationsniveaus des Fahrers valide vorhersagen können,
-
die wissen, dass Frustration zu sicherheitskritischem Fahren führen kann und
-
die geeignete Handlungen auswählen könnten, um einer ansteigenden Frustration entgegen wirken zu können.
Wäre dies realisierbar, dann stünden technische Systeme zur Verfügung, die sich – auf eine kognitiv empathische Art und Weise – an Menschen anpassen können und damit eine hoffentlich bessere Teamleistung erreichen können.
Evidenzbasierte Studien zur Wirkung empathischer Systeme stehen jedoch auch noch aus. Es ist daher nicht sicher, ob technische Systeme mit der Komplexität des menschlichen (emotionalen) Verhaltens tatsächlich Schritt halten können. Falls ein technisches System valide erkennt, dass ein Mensch frustriert ist, bedeutet dies tatsächlich, dass eine Maschine empathisch agieren/reagieren kann? Wie valide muss die Erkennung funktionieren? Was passiert, wenn ein Algorithmus in ein Produkt integriert wird, der nicht Frustration, sondern zum Beispiel Ärger oder Beanspruchung misst? Ändert sich durch die Konfrontation der Gesellschaft mit diesen Produkten die Bedeutung der Begrifflichkeiten Ärger, Frustration, Beanspruchung? Die Entwicklung kognitiv empathischer Systeme steht zwar noch am Anfang, aber solche Fragen sollten bei der Entwicklung, Gestaltung und Evaluation von Mensch-Maschine Interaktionen von Anfang an immer mitgedacht werden.
5 Interaktionsdynamik und wechselseitige Anpassung
Schon die oben beschriebene Ironie der Automatisierung deutet darauf hin, dass die Entwicklung von Mensch-Maschine Interaktion und Assistenz mit angemessenen Automatisierungsgraden immer auch die Rückwirkung auf die Nutzer mitdenken muss: Der immerzu lernende Mensch passt sich an (vgl. Hoffman et al. 2014). Wenn sich dazu das technische System auf den Menschen adaptiert oder sogar vom und mit dem Menschen interaktiv lernt, dann entsteht Interaktionsdynamik. Neben den schon genannten langfristigen Lerneffekten oder dem Verlust von Fertigkeiten, gibt es neben der Verminderung von situationsbezogener Aufmerksamkeit (vgl. Gombolay et al. 2017; Kaber et al. 2000) auch weitere kurzfristigere Effekte, die für die Gestaltung von Interaktion wichtig sind. In physischer Mensch-Maschine Interaktion wurde gezeigt, dass Menschen sehr schnell und vollständig unbewusst ein Modell des Maschinenverhaltens durch haptische Identifikation lernen, ihr eigenes Verhalten anpassen und so gemeinsam ausgeführte Aufgaben besser erledigen (Li et al. 2017). Ähnliches geschieht auf kognitiver Ebene: Menschen, die beispielsweise einen Roboter belehren sollten, passten sich in ihrem Interaktionsverhalten auf die vermuteten Fähigkeiten des Roboters an (Vollmer et al. 2014). Wird also Interaktion auf eine emotionale oder kognitive Ebene gehoben, so wie in der sozialen Robotik üblich, dann entstehen typische Muster. Zunächst entsteht bei Nutzern eine starke Neugier, die dann schnell nachlässt, wenn die Funktionen des technischen Systems exploriert wurden (Kanada et al. 2004), was wir in dem Zusammenhang dieses Beitrags als fehlgeschlagene Interaktion interpretieren können. Von Sciutti et al. (2018) wurde dazu in Bezug auf Roboter – ähnlich wie bei Ihme et al. (2018b) für allgemeine Mensch-Maschine Interaktion – argumentiert, dass es für die Gestaltung der Interaktion weniger auf die Erscheinung der Technologie als auf eine umfassende Humanisierung der Interaktion ankommt, d. h. dass das technische System ein umfassendes Modell des menschlichen Nutzers braucht, um dessen Bedürfnisse, Intentionen und Limitationen zu verstehen. Das erscheint in diesem umfassenden Anspruch kaum realistisch und ist zurzeit eher ein Forschungsprogramm als Realität. Es bleibt daher die Frage, wie die Gestaltung von Interaktionsdynamik im Design von Mensch-Maschine-Interaktion konkret operationalisiert werden kann.
6 Kritische Bewertung: Chancen und Risiken des Zusammenwirkens menschlicher und künstlicher Intelligenz
Dank des technologischen Fortschritts entwickelt sich das Zusammenwirken von Mensch und Technik rasant weiter. Während technische Systeme in den 1950er Jahren hauptsächlich einfache Messdaten aus der Umgebung lieferten, Anweisungen aufnahmen und in mechanische Aktionen umsetzten, stehen inzwischen künstlich intelligente Systeme im Fokus der Forschung und Entwicklung, die nicht nur kognitiv komplexe Funktionen wie Informationsverarbeitung und Entscheidungsfindung automatisieren, sondern auch die Art und Weise revolutionieren können, mit der wir mit technischen Systemen interagieren. Sie können zum Beispiel mithilfe der Auswertung von Kameradaten Informationen über den aktuellen, emotionalen Zustand von Menschen liefern und ihre eigene Funktionalität an diese Zustände adaptieren.
Die Implementierung von höheren Automationsgraden in den Funktionen der Informationsverarbeitung und Entscheidungsfindung liefert sicherlich die Chance, dass eine bessere Leistung durch das Team Mensch-Technik erreicht wird. Es ist jedoch naiv zu glauben, dass diese quasi automatisch mit zunehmendem Automatisierungsgrad oder umfassenderer Funktionalität erreicht wird. Im Gegenteil birgt auch die Mensch-Maschine Interaktion das Risiko, dass die Aufgabe, die der Mensch zu realisieren hat, komplexer und kognitiv anspruchsvoller wird. Gerade im beruflichen Kontext wäre hier also zu diskutieren, wie auf diese veränderten Anforderungen eingegangen wird: Ist die Personalauswahl anzupassen, sodass nur noch Menschen mit höheren kognitiven Fähigkeiten Systeme mit hoher Informationsverarbeitungs- und Entscheidungsfindungsautomation bedienen dürfen? Ist dies eine Entwicklung, die für die Gesellschaft förderlich ist? Ändert sich die Einschätzung, wenn nicht die Personalauswahl, sondern ein künstlich intelligenter Algorithmus die Entscheidung trifft? Darf künstliche Intelligenz dafür genutzt werden, menschliche Intelligenz bzw. Leistungsfähigkeit zu diagnostizieren? Welche Menschenbilder und Intelligenzdefinitionen lägen dem zugrunde? Ist die Technik dann für die Leistung verantwortlich? Belohnen Maschinen dann nicht das Nichtstun des Menschen, indem sie Menschen essenzielle Aufgaben abnehmen?
Die Implementierung der Anpassungsfähigkeiten an Menschen, insbesondere durch lernende Systeme, basiert auf der Erfassung von Daten über Menschen und deren Auswertung. Auch hier entsteht die Chance, dass sich technische Systeme auf deren Nutzer einstellen und diesen somit eine Last nehmen. Gleichzeitig funktioniert dieser Mechanismus aber nur dann, wenn die technischen Systeme sehr viele Daten erfassen, die Rückschlüsse auf die Person zulassen. Abgesehen von der Sicherheit der Daten und den abgeleiteten Informationen stellt sich hier auch die Frage, ob Menschen dann im Laufe der Zeit nicht auf das Messbare reduziert werden.
Ein möglicher Fortschritt ist, technische Systeme zu kognitiver Empathie zu befähigen, d. h. insbesondere menschliche Emotionen zu erkennen und darauf zu reagieren. Kritisch zu hinterfragen ist dabei aber auch, welches Konzept von menschlichen Emotionen dem technischen System eingeschrieben wird (Manzeschke und Assadi 2019). Wird also der Mensch auf das reduziert, was von künstlich intelligenten Systemen erfasst werden kann? Ist Empathie nicht eine inhärent menschliche Eigenschaft, die verloren geht, wenn sie auf technische Systeme übertragen wird? Wie wird sich unser Verständnis von sozialen Interaktionen, Empathie, Emotion und Kooperation durch hybrides Zusammenwirken verändern? Es könnte auch, analog zur klassischen Ironie der Automation, zu einer Art höherstufiger Ironie der Automatisierung in Mensch-Maschine Interaktion kommen, in der Menschen durch die implizite Normierung in der technisch vermittelten Interaktion die Reichhaltigkeit ihrer emotionalen Verhaltensweisen verloren zu gehen droht.
Die aufgeworfenen Fragen sind sicherlich nicht leicht zu beantworten und können im Rahmen dieses Buchkapitels kaum beantwortet werden. Nichtsdestotrotz sollte darauf verwiesen werden, dass ähnliche Diskussionen im Kontext der Industrialisierung und des Taylorismus schon einmal geführt wurden (Ulrich 1994). Hier wurde das Kriterium der Persönlichkeitsförderlichkeit zur Bewertung menschlicher Tätigkeiten eingeführt (Hacker und Richter 1984). Tätigkeiten sollten also so gestaltet sein, dass diese die (Weiter-)Entwicklung kognitiver und sozialer Kompetenzen, das menschliche Selbstkonzept und die Leistungsmotivation des Menschen fördern. Dieses Kriterium sollte bei der Gestaltung von technischen Systemen berücksichtigt werden. Die Gefahr, dass wir uns zu Tode assistieren (Gransche 2017) und dabei wichtige, auch kognitive Fähigkeiten und Fertigkeiten verlieren, sollte aktiv betrachtet werden. In ihrer Betrachtung zur Rolle von Robotern und der Mensch-Roboter Interaktion in der digitalen Arbeitswelt kamen Steil und Maier (2018) daher auch zu der Einschätzung, dass es wesentlich auf die Arbeitsgestaltung ankommt, ob die neuen Spielräume durch Mensch-Maschine Interaktion in für Nutzer förderlichem Sinne genutzt werden. Ein kritisches Hinterfragen, ob die aktuellen technologischen Entwicklungen auch bei allgemeinerem Mensch-Maschine-Zusammenwirken solchen Kriterien genügen, wird sicherlich helfen, Antworten auf die aufgeworfenen Fragen zu finden.
Literatur
Atwood, M. E., & Polson, P. G. (1976). A process model for water jug problems. Cognitive Psychology, 8, 191–216.
Bainbridge, L. (1983). Ironies of automation. Automatica, 19, 775–779.
Billings, C. E. (1997). Aviation automation: The search for a human-centred approach. Mahwah: Lawrence.
Binet, A., & Simon, T. (1905). New methods for the diagnosis of the intellectual level of subnormals. In H. H. Goddard (Hrsg.), Development of intelligence in children (the Binet-Simon Scale). Baltimore: Williams & Wilkins.
Brandenburger, N., Naumann, A., & Jipp, M. (2019). Task-induced fatigue when implementing high grades of railway automation. Cognition, Technology & Work. https://doi.org/10.1007/s10111-019-00613-z.
Calhoun, G. L., Draper, M. H., & Ruff, H. A. (2009). Effect of level of automation on unmanned aerial vehicle routing task. In Proceedings of the Human Factors and Ergonomics Society 53rd Annual Meeting (S. 197–201). Santa Monica, CA: Human Factors and Ergonomics Society.
Deary, I. J., Penke, L., & Johnson, W. (2010). The neuroscience of human intelligence differences. Nature Reviews Neuroscience, 11(3), 201.
Dörner, D. (2004). Der Mensch als Maschine. In G. Jüttemann (Hrsg.), Psychologie als Humanwissenschaft (S. 32–45). Göttingen: Vandenhoeck & Ruprecht.
Ekman, P. (2007). Gefühle lesen. München: Spektrum.
Endsley, M. R., & Kaber, D. B. (1999). Level of automation effects on performance, situation awareness and workload in a dynamic control task. Ergonomics, 42, 462–492.
Endsley, M. R., & Kiris, E. O. (1995). The out-of-the-loop performance problem and level of control in automation. Human Factors, 37, 381–394.
Feil, E. (1987). Antithetik neuzeitlicher Vernunft –,Autonomie – Heteronomie‘ und,rational irrational‘. Göttingen: Vandenhoeck & Ruprecht.
Fields, S., Mahan, P., Tillman, P., Harris, J., Maxwell, K., & Hojat, M. (2011). Measuring empathy in healthcare profession students using the jefferson scale of physician empathy: Health provider-student version. Journal of Interprofessional Care, 25, 287–293.
Gombolay, M., Bair, A., Huang, C., & Shah, J. (2017). Computational design of mixed-initiative human-robot teaming that considers human factors: Situational awareness, workload, and workflow preferences. The International Journal of Robotics Research, 36, 597–617. https://doi.org/10.1177/0278364916688255.
Guthke, J. (1996). Intelligenz im Test. Wege der psychologischen Intelligenzdiagnostik. Göttingen: Vanderhoeck & Ruprecht.
Gransche, B. (2017). Wir assistieren uns zu Tode. In P. Biniok & E. Lettkemann (Hrsg.), Assistive Gesellschaft. Öffentliche Wissenschaft und gesellschaftlicher Wandel. Wiesbaden: Springer.
Hacker, W., & Richter, P. (1984). Psychologische Bewertung von Arbeitsgestaltungsmaßnahmen. Ziele und Bewertungsmaßstäbe. Berlin: Springer.
Hall, J. A., & Bernieri, F. J. (Hrsg.). (2001). Interpersonal sensitivity: Theory and measurement. Mahwah: Lawrence.
Hancock, P. A., & Chignell, M. H. (1988). Mental workload dynamics in adaptive interface design. IEEE Transactions on Systems, Man, and Cybernetics, 18, 647–658.
Hancock, P. A., Chignell, M. H., & Lowenthal, A. (1985). An adaptive human-machine system. Proceedings of the IEEE Conference on Systems, Man, and Cybernetics, 15, 627–629.
Hayes, C. C., & Miller, C. A. (Hrsg.). (2010). Human-computer etiquette: Cultural expectations and the design implications they place on computers and technologies. New York: Taylor & Francis.
Helton, W. S., Hollander, T. D., Warm, J. S., Tripp, L. D., Parsons, K. S., Matthews, G., Dember, W. N., Parasuraman, R., & Hancock, P. A. (2007). The abbreviated vigilance task and cerebral hemodynamics. Journal of Clinical and Experimental Neuropsychology, 29, 545–552.
Hoffman, R. R., Ward, P., Feltovich, P. J., DiBello, L., Fiore, S. M., & Andrews, D. H. (2014). Accelerated expertise: Training for high proficiency in a complex world. New York: Psychology Press.
Ihme, K., Dömeland, C., Freese, M., & Jipp, M. (2018a). Frustration in the face of the driver: A simulator study on facial muscle activity during frustrated driving. Interaction Studies, 19, 487–498.
Ihme, K., Preuk, K., Drewitz, U., & Jipp, M. (2018b). Putting people center stage: To drive and to be driven. Tagungsband der 4. Internationalen ATZ-Fachtagung „Automatisiertes Fahren“, 18, 1–15.
Ihme, K., Unni, A., Zhang, M., Rieger, J., & Jipp, M. (2018). Recognizing frustration of drivers from face video recordings and brain activation measurements with functional near-infrared spectroscopy. Frontiers in Human Neuroscience, 12, 327. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6109683/.
Jäger, A. O. (1984). Intelligenzstrukturforschung: Konkurrierende Modelle, neue Entwicklungen, Perspektiven. Psychologische Rundschau, 35, 21–35.
Jäger, A. O., Süß, H.-M., & Beauducel, A. (1997). Berliner Intelligenzstruktur-Test. Form 4. Göttingen: Hogrefe.
Jeon, M. (2015). Towards affect-integrated driving behaviour research. Theoretical Issues of Ergonomics Science, 16, 553–585.
Jipp, M. (2016a). Expertise development with different types of automation: A function of different cognitive abilities. Human Factors, 58, 92–106.
Jipp, M. (2016b). Reaction times to consecutive automation failures: A function of working memory and sustained attention. Human Factors, 58, 1248–1261. https://doi.org/10.1177/0018720816662374.
Jipp, M., & Ackerman, P. (2016). The impact of higher levels of automation on performance and situation awareness: A function of information processing ability and working-memory capacity. Journal of Cognitive Engineering and Decision Making, 10, 138–166.
Kaber, D. B., Onal, E., & Endsley, M. R. (2000). Design of automation for telerobots and the effect on performance, operator situation awareness, and subjective workload. Human Factors and Ergonomics in Manufacturing & Service Industries, 10, 409–430.
Kaber, D. B., Wright, M. C., Prinzel, L. J., & Clamann, M. P. (2005). Adaptive automation of human-machine system information-processing functions. Human Factors, 47, 730–741. https://doi.org/10.1518/001872005775570989.
Kanda, T., Hirano, T., Eaton, D., & Ishiguro, H. (2004). Interactive robots as social partners and peer tutors for children: A field trial. Human-Computer Interaction, 19, 61–84. https://doi.org/10.1207/s15327051hci1901&2_4.
Kant, I. (1785). Grundlegung zur Metaphysik der Sitten. In W. Weischedel (Hrsg.), Werke in zehn Bänden (Bd. 6). Darmstadt: Wissenschaftliche Buchgesellschaft.
Kantowitz, B. H., & Sorkin, R. D. (1987). Allocation of function. In G. Salvendy (Hrsg.), Handbook of human factors (S. 355–369). New York: Wiley.
Kaplan, R. M., Satterfield, J. M., & Kington, R. S. (2012). Building a better physician: The case for the new MCAT. The New England Journal of Medicine, 366, 1265–1268.
Kessel, C., & Wickens, C. D. (1982). The transfer of failure detection skills between monitoring and controlling dynamic systems. Human Factors, 24, 49–60.
Krause, D. E. (2017). Personalauswahl: Die wichtigsten diagnostischen Verfahren für das Human Resources Management. Wiesbaden: Springer.
Li, Y., Jarrassé, N., & Burdet, E. (2017). Versatile interaction control and haptic identification in humans and robots. In J. P. Laumond, N. Mansard, & J. B. Lasserre (Hrsg.), Geometric and numerical foundations of movements (S. 187–206). Cham: Springer.
Manningham, D. (1997). The cockpit: A brief history. Business & Commercial Aviation, 80, 6.
Maurer, M. (2015). Einleitung. In M. Maurer, J. C. Gerdes, B. Lenz, & W. Winner (Hrsg.), Autonomes Fahren (S. 1–8). Heidelberg: Springer Vieweg.
Manzeschke, A. & Assadi, G. (2019). Emotionen in der Mensch-Maschine-Interaktion. In K. Liggieri & O. Müller (Hrsg.), Mensch-Maschine-Interaktion (S. 165–171). Stuttgart: J.B. Metzler.
Manzey, D., Luz, M., Mueller, S., Dietz, A., Meixensberger, J., & Strauss, G. (2011). Automation in surgery: The impact of navigated-control assistance on performance, workload, situation awareness, and acquisition of surgical skills. Human Factors, 53, 584–599.
Manzey, D., Reichenbach, J., & Onnasch, L. (2012). Human performance consequences of automated decision aids: The impact of degree of automation and system experience. Journal of Cognitive Engineering and Decision Making, 6, 57–87.
Miller, C. A., & Parasuraman, R. (2007). Designing for flexible interaction between humans and automation: Delegation interfaces for supervisory control. Human Factors, 49, 57–75.
Moray, N., Inagaki, T., & Itoh, M. (2000). Situation adaptive automation, trust and self-confidence in fault management of time-critical tasks. Journal of Experimental Psychology: Applied, 6, 44–58.
Nilsson, Nils J. (2009). The quest for artificial intelligence: A history of ideas and achievements. New York: Cambridge University Press.
Norman, S., Billings, C. E., Nadel, D., Palmer, E., Wiener, E. L., & Woods, D. D. (1988). Aircraft automation philosophy: A source document (Technical Report). Moffett Field: NASA Ames Research Centre.
Onnasch, L., Wickens, C. D., Li, H., & Manzey, D. (2014). Human performance consequences of stages and levels of automation: An integrated meta-analysis. Human Factors, 56, 476–488.
Pan, Y. (2016). Heading toward artificial intelligence 2.0. Engineering, 2(4), 409–413.
Parasuraman, R., Bahri, T., Deaton, J. E., Morrison, J. G., & Barnes, M. (1990). Theory and design of adaptive automation in adaptive systems (Progress Report No. NAWCADWAR-92033-60). Warminster, PA: Naval Air Warfare Center, Aircraft Division.
Parasuraman, R., Galster, S., Squire, P., Furukawa, H., & Miller, C. (2005). A flexible delegation-type interface enhances system performance in human supervision of multiple robots: Empirical studies with RoboFlag. IEEE Transactions on Systems, Man, and Cybernetics, 35, 481–493.
Parasuraman, R., & Riley, V. A. (1997). Humans and automation: Use, misuse, disuse, abuse. Human Factors, 39, 230–253.
Parasuraman, R., Sheridan, T. B., & Wickens, C. D. (2000). A model for types and levels of human interaction with automation. IEEE Transactions on Systems, Man, and Cybernetics, 30, 286–296.
Parasuraman, R., & Wickens, C. D. (2008). Humans: Still vital after all these years of automation. Human Factors, 50, 511–520.
Petty, R. E., & Cacioppo, J. T. (1986). The elaboration likelihood model of persuasion. In L. Berkowitz (Hrsg.), Advances in experimental social psychology (S. 123–205). New York: Academic.
Prinzel, L., Freeman, F., Scerbo, M., Mikulka, P., & Pope, A. (2000). Effects of a psychophysiological system for adaptive automation on performance, workload and a closed-loop system for examining psychophysiological measures for adaptive task allocation. International Journal of Aviation Psychology, 10, 393–410.
Rasmussen, J., Pejtersen, A. M., & Goodstein, L. P. (1994). Cognitive systems engineering. New York: Wiley.
Robst, J. (2007). Education and job match. The relatedness of college major and work. Elsevier. Economics of Education Review, 26, 397–407.
SAE. (2018). Taxonomy and definitions for terms related to driving automation systems for on-road motor vehicles. SAE International. https://doi.org/10.4271/J3016_201806.
Sarter, N. B., Woods, D. D., & Billings, C. E. (1997). Automation surprises. In G. Salvendy (Hrsg.), Handbook of human factors & ergonomics. New York: Wiley.
Scerbo, M. W. (1996). Theoretical perspectives on adaptive automation. In R. Parasuraman & M. Mouloua (Hrsg.), Automation and human performance: Theory and application (S. 37–63). Mahwah: Lawrence Erlbaum.
Scerbo, M. W. (2001). Adaptive automation. In W. Karwowski (Hrsg.), International encyclopedia of ergonomics and human factors (S. 1077–1079). London: Taylor and Francis.
Sciutti, A., Mara, M., Tagliasco, V., & Sandini, G. (2018). Humanizing human-robot interaction: On the Importance of mutual understanding. IEEE Technology and Society Magazine, 37(1), 22–29.
Steil, J. J. (2019). Roboterlernen ohne Grenzen? Lernende Roboter und ethische Fragen. In C. Woopen & M. Jannes (Hrsg.), Roboter in der Gesellschaft. Schriften zu Gesundheit und Gesellschaft – Studies on Health and Society (Bd. 2, S. 15–33). Berlin: Springer.
Steil, J. J., & Maier, G. W. (2018). Kollaborative Roboter: Universale Werkzeuge in der digitalisierten und vernetzten Arbeitswelt. In G. Maier, G. Engels, & E. Steffen (Hrsg.), Handbuch Gestaltung digitaler und vernetzter Arbeitswelten. Springer Reference Psychologie. Berlin: Springer.
Steil, J. J., & Wrede, S. (2019). Maschinelles Lernen und lernende Assistenzsysteme – Neue Tätigkeiten, Rollen und Anforderungen für Beschäftigte? Berufsbildung in Wissenschaft und Praxis. BWP, 3, 14–18.
Szalma, J. L., Warm, J. S., Matthews, G., Dember, W. N., Weiler, E. M., Meier, A., & Eggemeier, F. T. (2004). Effects of sensory modality and task duration on performance, workload, and stress in sustained attention. Human Factors, 46, 219–233.
Tews, T.-K., Oehl, M., Siebert, F. W., Höger, R., & Faasch, H. (2011). Emotional human-machine interaction: Cues from facial expressions. In D. Hutchison, T. Kanade, J. Kittler, J., M. Kleinberg, F. Mattern, J. C. Mitchell, . . . (Hrsg.), Lecture Notes in Computer Science. Human Interface and the Management of Information. Interacting with Information (Bd. 6771, S. 641–650). Berlin: Springer.
Turing, A. M. (1950). Computing machinery and intelligence. Mind, 49, 433–460.
Turk, M. (2014). Multimodal interaction: A review. Pattern Recognition Letters, 36, 189–195.
Trist, E., & Bamforth, K. (1951). Some social and psychological consequences of the long wall method of coal getting. Human Relations, 4, 3–38.
Ulrich, E. (1994). Arbeitspsychologie. Stuttgart: Poeschel.
Vollmer, A.-L., Mühlig, M., Steil, J. J., Pitsch, K., Fritsch, J., Rohlfing, K., & Wrede, B. (2014). Robots show us how to teach them: Feedback from robots shapes tutoring behavior during action learning. PLoS ONE, 9(3), e91349.
Warm, J. S., Finomore, V. S., Vidulich, M. A., & Funke, M. E. (2015). Vigilance: A perceptual challenge. In R. R. Hoffman, P. A. Hancock, M. W. Scerbo, R. Parasuraman, & J. L. Szalma (Hrsg.), The Cambridge handbook of applied perception research (S. 241–283). New York: Cambridge University.
Warm, J. S., Matthews, G., & Finomore, V. S. (2008). Workload, stress, and vigilance. In P. A. Hancock & J. L. Szalma (Hrsg.), Performance Under Stress (S. 115–141). Brookfield: Ashgate.
Wickens, C. D., Li, H., Santamaria, A., Sebok, A., & Sarter, N. B. (2010). Stages and levels of automation: An integrated meta-analysis. In Proceedings of the Human Factors and Ergonomics Society 54th Annual Meeting (S. 389–393).
Wiener, E. L., & Curry, R. E. (1980). Flight-deck automation: Promise and problems. Ergonomics, 23, 995–1011.
Yurish, S. Y. (2010). Sensors: smart vs. intelligent. Sensors & Transducers, 114(3), I.
Author information
Authors and Affiliations
Corresponding author
Editor information
Editors and Affiliations
Rights and permissions
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 International Lizenz (http://creativecommons.org/licenses/by/4.0/deed.de) veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Copyright information
© 2021 The Author(s)
About this chapter
Cite this chapter
Jipp, M., Steil, J. (2021). Steuern wir oder werden wir gesteuert? Chancen und Risiken von Mensch-Technik-Interaktion. In: Haux, R., Gahl, K., Jipp, M., Kruse, R., Richter, O. (eds) Zusammenwirken von natürlicher und künstlicher Intelligenz. Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-30882-7_3
Download citation
DOI: https://doi.org/10.1007/978-3-658-30882-7_3
Published:
Publisher Name: Springer VS, Wiesbaden
Print ISBN: 978-3-658-30881-0
Online ISBN: 978-3-658-30882-7
eBook Packages: Social Science and Law (German Language)