Skip to main content
Erschienen in: Zeitschrift für Arbeitswissenschaft 2/2022

Open Access 10.03.2022 | Wissenschaftliche Beiträge

Entwicklung und Validierung einer computerbasierten Aufgabe zur Induktion eines psychischen Beanspruchungsspektrums

verfasst von: Yannick Andreas Funk, M. Sc., Henrike Haase, M. Sc., Julian Remmers, M. Sc., Noé Nussli, B. Sc., Prof. Dr.-Ing. Dipl.-Psych. Barbara Deml

Erschienen in: Zeitschrift für Arbeitswissenschaft | Ausgabe 2/2022

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Zusammenfassung

Im Rahmen des vom BMBF geförderten Projekts Fahrerkabine 4.0 wird eine adaptive Mensch-Maschine-Schnittstelle für Landmaschinen entwickelt, die das aktuelle Beanspruchungslevel mit Hilfe physiologischer Daten detektiert. Zu diesem Zwecke wird in dieser Arbeit eine Experimentalaufgabe entwickelt und evaluiert, die ein psychisches Belastungsspektrum von wenig bis sehr stark anstrengend in Versuchspersonen induzieren kann. In drei Laborstudien wird psychische Belastung mit einer Überwachungstätigkeit erzeugt, deren Bearbeitungsgeschwindigkeit randomisiert variiert. Die Komplexität der Tätigkeit wird abschnittsweise durch eine visuelle und/oder eine auditive Nebenaufgabe erhöht. Von den Versuchspersonen empfundene psychische Beanspruchung wird mit Hilfe der Rating Scale Mental Effort, der Reaktionszeiten und der Fehlerrate bewertet. Die Studien mit jeweils N = 17, N = 8 bzw. N = 21 Probanden zeigen, dass eine dynamische Kombination von Haupt- und Nebenaufgaben signifikant unterschiedliche Belastungsgrade induzieren kann (F (2,40) = 54.834, p < 0,001).
Praktische Relevanz: Mithilfe der entwickelten Experimentalaufgabe wird in zukünftigen Arbeiten ein Messsystem zur Klassifizierung psychischer Beanspruchungszustände für Landmaschinen entworfen und erprobt. In beanspruchungsarmen Situationen (z. B. automatisierte Ernte) sollen zusätzliche Handlungsempfehlungen vorgeschlagen werden. Während stark beanspruchenden Abschnitten soll eine Überforderung der Nutzenden vermieden werden, indem lediglich die für die Durchführung der Arbeitstätigkeit notwendigen Informationen angezeigt werden.

1 Hintergrund

Der erfolgreiche Einzug intelligenter Mensch-Maschine-Systeme in die Arbeitswelt 4.0 führt zu einem grundlegenden Wandel in der Arbeitsplatzgestaltung: Routinetätigkeiten in allen Wirtschaftssektoren werden teilweise oder vollständig digitalisiert und automatisiert (Eichhorst und Buhlmann 2015). Die Arbeitsaufgaben werden größtenteils komplexer, interaktiver und kreativer. Der bereits begonnene Trend – weg von Routinetätigkeiten und hin zu Nicht-Routinetätigkeiten – wird sich weiter und möglicherweise beschleunigt fortsetzen (Eichhorst und Buhlmann 2015).
Dieser Wandel in der modernen Arbeitswelt führt zu einem Anstieg der psychischen Beanspruchung der Arbeitenden (vgl. z. B. Diebig et al. 2018; Schaff 2019; Poppelreuter und Mierke 2018). Wiederholte Einwirkung hoher psychischer Belastungen kann beispielsweise zu Entfremdungserscheinungen (einer Komponente des Burnout-Syndroms) führen (DIN EN ISO 10075-1:2018 2018). Vor diesem Hintergrund rückt die Entwicklung nutzeradaptiver Schnittstellen zunehmend in den Fokus der Forschung. Ein Ziel personenadaptiver Schnittstellen ist es, den Zustand des Nutzers mit objektiv messbaren und validen Indikatoren zu identifizieren, um gegebenenfalls im Arbeitsprozess Unterstützung oder Zusatzinformationen bereitzustellen (Bornewasser et al. 2018).
Im Rahmen des vom BMBF geförderten Verbundvorhabens „Fahrerkabine 4.0“ (Fahrerkabine 4.0 2019) wird am KIT eine adaptive Mensch-Maschine-Schnittstelle für Landmaschinen entwickelt, die in der Lage ist, das aktuelle Beanspruchungsniveau der Fahrer und Fahrerinnen mit Hilfe physiologischer Daten zu detektieren. Daraus sollen Handlungsempfehlungen abgeleitet werden: so können z. B. bei geringer Beanspruchung während einer automatisierten Erntefahrt zusätzliche Büroaufgaben, die andernfalls am Ende eines langen Tages bearbeitet werden müssen, vorgezogen werden. Bei hoher Beanspruchung, wie etwa bei Wendemanövern, lassen sich unkritische Teilaufgaben oder die Verarbeitung sekundärer Informationen verzögern.
Bei der Entwicklung einer (psychischen) Nutzerzustandserfassung gilt es, zwischen den Begriffen „psychischer Belastung“ und „psychischer Beanspruchung“ zu unterscheiden. Die DIN EN ISO 10075-1:2018 definiert psychische Belastung als „die Gesamtheit aller erfassbaren Einflüsse, die von außen auf einen Menschen zukommen und diesen psychisch beeinflussen“. Psychische Beanspruchung beschreibt die unmittelbare Auswirkung der psychischen Belastung auf das Individuum in Abhängigkeit des aktuellen Zustands. Der Begriff der psychischen Beanspruchung bezieht sich dabei sowohl auf kognitive als auch auf emotionale Vorgänge im arbeitenden Menschen. Diese Prozesse stehen eng miteinander in Beziehung und es ist kaum möglich sie sinnvoll getrennt voneinander zu betrachten (DIN EN ISO 10075-1:2018 2018).
Psychische Beanspruchung beschreibt also die individuelle Reaktion eines Menschen auf alle äußeren, psychischen Einwirkungen (Belastung) und hängt darüber hinaus von den individuellen Fähigkeiten, Fertigkeiten und Eigenschaften der belasteten Menschen ab: Eine gleiche Belastung kann zu individuell unterschiedlicher Beanspruchung führen (Rohmert 1983). Hieraus ergibt sich die Forderung, dass Methoden zur Beanspruchungsmessung die Individualität der Beanspruchungsreaktionen berücksichtigen und speziell für die jeweilige Nutzerin oder den jeweiligen Nutzer kalibriert werden müssen. Zu diesem Fazit kommen auch Jeschke et al. (2016), die den Zusammenhang von psychischer Beanspruchung und physiologischen Indikatoren auf Stichprobenebene – nicht auf individueller Ebene – untersuchten.
Die bisherige Forschung zeigt, dass die adaptive Gestaltung von Unterstützungsmaßnahmen sich positiv auf die menschliche Leistungsfähigkeit und Motivation in der Mensch-Maschine-Interaktion auswirkt und die Effektivität des gesamten Mensch-Maschine-Systems verbessert werden kann (Kyriakidis et al. 2015; Schwarz 2019; Ulahannan et al. 2020; Ramakrishnan et al. 2021). Aktuelle Systeme zur Nutzerzustandserfassung sind größtenteils Totmannschalter, bei denen der Fahrer oder die Fahrerin kontinuierlich ihre Verfügbarkeit signalisieren, z. B. durch Berührung des Lenkrads (Diederichs et al. 2020). Komplexere Systeme, z. B. die Bewertung psychischer Beanspruchung werden bisher nicht in Serienproduktionen verbaut und bedürfen noch weiterer Forschung (Khan und Lee 2019). Ursachen hierfür sind u. a. mangelnde regulatorische Klarheit, die schwankende Zuverlässigkeit der Messsysteme und die Akzeptanz, bzw. das Vertrauen in diese Systeme (Stuiver et al. 2010; Manzey 2012; Khan und Lee 2019; Morales-Alvarez et al. 2020; Pretto et al. 2020; Kalayci et al. 2021).
Zukünftig soll es möglich sein, anhand der in dieser Arbeit entwickelten Experimentalaufgabe psychische Beanspruchungsmesssysteme mit beliebigen physiologischen Indikatoren auf eine individuelle Versuchsperson zu kalibrieren.
Damit ein solches System zunächst im Labor entwickelt und anschließend an einem Demonstrator erprobt werden kann, wird eine Experimentalaufgabe konzipiert, mit deren Hilfe sich ein Spektrum psychischer Beanspruchungszustände reproduzierbar in Versuchspersonen induzieren lässt. Auf dieser Arbeit aufbauend können in Zukunft verschiedene Messsysteme (EKG, Eye Tracker, Stimmfrequenzanalyse, etc.), im Rahmen diverser Forschungsprojekte und Abschlussarbeiten, im Hinblick auf ihre Eignung zur psychischen Beanspruchungsanalyse in einem validierten Umfeld untersucht werden.

1.1 Erfassung psychischer Beanspruchung

Die Quantifizierung psychischer Beanspruchung erfolgt in drei Kategorien: subjektiv erlebt, physiologisch gemessen und leistungsbasiert. Die Erhebung subjektiv erlebter psychischer Beanspruchung geschieht mit Hilfe von Ratingskalen, Fragebögen, Checklisten oder Interviews. Dem liegt die Annahme zugrunde, dass das Beanspruchungsempfinden von Individuen auf eine tatsächliche äußere Belastung zurückzuführen ist und diese von den Versuchspersonen differenziert wiedergegeben werden kann (Schlick et al. 2018). Psychophysiologische Messungen (z. B. Herzschlagfrequenz und Augenbewegungen) gelten – im Gegensatz zur subjektiven Befragung – als objektiv, da die Versuchspersonen diese für gewöhnlich nicht bewusst beeinflussen können. Ein weiterer Vorteil physiologischer Messungen ist die kontinuierliche Datenerfassung, wobei die Arbeitstätigkeit nicht durch Befragungen unterbrochen werden muss (Schlick et al. 2018; Jeschke et al. 2016).
De Waard (1996) identifizierte einen n-förmigen Zusammenhang zwischen Leistung und psychischer Beanspruchung. Demnach führen sowohl eine sehr geringe Beanspruchung (Monotonie) als auch eine sehr große Beanspruchung (Überforderung) zu einem Leistungsabfall. Die Leistung einer Person hängt dabei nicht nur von ihrer individuellen Kapazität, sondern auch von ihrem Willen ab, die Aufgabe zu lösen. Diese Bereitschaft, eine Aufgabe zu lösen, kann sich während einer Tätigkeit mehrfach ändern. So kann eine Versuchsperson Ermüdung und steigende Aufgabenschwierigkeit zu einem gewissen Grad durch Willenskraft kompensieren. Die psychische Beanspruchung kann also variieren, während die gemessene Leistung gleichbleibt.
Die Erforschung psychischer Beanspruchung und deren diagnostisches Potenzial für adaptive Mensch-Maschine-Interaktion sind nicht neu. Rouse (1988) beispielsweise entwickelte das Konzept des Adaptive Aiding für den Bereich der Flugzeugführung. Dabei sollten der Pilot oder die Pilotin nur dann durch Automation unterstützt werden, wenn diese Unterstützung auch tatsächlich zur Aufgabenerfüllung notwendig war. Als Indikatoren für Unterstützungsbedarf wurden Leistungsparameter (z. B. Änderung der Reaktionszeit) verwendet. De Waards (1996) Ergebnisse legen jedoch nahe, dass die Messung psychischer Beanspruchung nicht allein auf Leistungsparametern beruhen kann, sondern durch physiologische Maße ergänzt werden sollte. Diese Erkenntnis wurde in spätere Forschungsarbeiten einbezogen, woraufhin die Leistungsmessung um physiologische Indikatoren ergänzt wurde. Weitere Arbeiten zur Entwicklung adaptiver Schnittstellen sind u. a. Morrison et al. (2006), Stanney et al. (2009), Schneider (2019), Schwarz (2019), Luong et al. (2020), Planke et al. (2021) und Hillege et al. (2020). Eine Übersicht weit verbreiteter physiologischer Messverfahren findet sich beispielsweise bei Hancock et al. (2021).

1.2 Kognitive Informationsverarbeitung

Wickens (1984, 2002, 2008) Multiple Resource Theory untersucht unterschiedliche Ressourcendimensionen mit Bezug zu psychischer Beanspruchung und stellt diese grafisch in einem Würfelmodell dar (vgl. Abb. 1). Die kognitive Informationsverarbeitung wird in die drei Stufen Perzeption (Gesamtheit der Wahrnehmung), Kognition (Verarbeitung der wahrgenommenen Informationen) und Ausführung (Reaktion auf wahrgenommene Information) eingeteilt. Wickens (2002) konnte durch Untersuchungen an Dual-Task-Situationen zeigen, dass perzeptive und kognitive Prozesse dieselbe Ressource beanspruchen, während die Ausführung einer Handlung auf andere Ressourcen zurückgreift. Die parallele Ausführung einer perzeptiven und kognitiven Aufgabe, z. B. eine visuelle Überwachungsaufgabe (Perzeption) gekoppelt mit einer mentalen Rotation (Kognition), führt also zu Interferenzen und damit zu hoher psychischer Beanspruchung und gegebenenfalls zu Leistungseinbußen.
Neben den Verarbeitungsstufen unterscheidet Wickens (1984, 2002, 2008) die räumliche und verbale Kodierung von Informationen sowie die Wahrnehmungsmodalitäten visuell und auditiv. Intramodale Dual-Task-Situationen wie das Lesen eines Textes (visuell) während des Autofahrens (hohe visuelle Anforderungen) führen zu Interferenz und damit zu höherer psychischer Beanspruchung als übermodale Situationen wie das Hören eines Textes (auditiv) während des Autofahrens. Analog beeinflusst die Kodierung einer Information die erlebte psychische Beanspruchung: übermodale Informationsverarbeitung führt zu Interferenz, falls die Information in beiden Fällen gleich kodiert ist. So fällt es schwer, Nachrichten zu hören (verbal, auditiv) und gleichzeitig einen Text zu lesen (verbal, visuell).
Zusammenfassend bedeutet dies für die Gestaltung der Experimentalaufgabe, dass die empfundene psychische Beanspruchung einer (Haupt‑) Aufgabe durch Hinzufügen einer oder mehrerer paralleler (Neben‑) Aufgaben gesteigert werden kann. Der Grad der gesteigerten Beanspruchung richtet sich dabei danach, ob die angesprochenen Ressourcendimensionen bei der Kombination miteinander interferieren oder, wie im Falle einer übermodalen Situation mit unterschiedlicher Kodierung, unterschiedliche Ressourcen beanspruchen.

2 Bausteine der Experimentalaufgabe

In der Arbeitswissenschaft wird psychische Beanspruchung oft über sog. Dual-Task-Paradigmen induziert und die physiologischen Reaktionen darauf gemessen (z. B. Matthews et al. 2015; Faure et al. 2016; Solís-Marcos und Kircher 2019; Moacdieh et al. 2020; Zokaei et al. 2020). In diesen Studien wird die Reliabilität verschiedener Leistungsindikatoren und physiologischer Parameter zur Diagnose psychischer Beanspruchung untersucht, indem Versuchspersonen Aufgaben bearbeiten, die phasenweise um Nebenaufgaben ergänzt werden. Parallel werden Leistungsmaße, subjektive Beanspruchung (z. B. NASA TLX oder RSME) und physiologische Parameter erhoben. Oft wird die Eignung eines speziellen Messverfahrens oder Indikators zur Beanspruchungsmessung untersucht (z. B. Moacdieh et al. 2020). Die unterschiedlichen Rahmenbedingungen der einzelnen Studien erschweren den direkten Vergleich der angewandten Messgeräte und -verfahren untereinander.
Ziel der hier vorgestellten Studie ist es, eine standardisierte Aufgabe (bestehend aus gekoppelten Teilaufgaben) zu entwickeln, die nachweislich in der Lage ist, variierende psychische Beanspruchung in Versuchspersonen zu induzieren, um anschließend systematisch verschiedene Messgeräte zu untersuchen und diese direkt miteinander zu vergleichen. Die entwickelte Aufgabe kann weiterhin zum Sammeln von Trainingsdaten für maschinelles Lernen und somit als Kalibrierungsaufgabe für Beanspruchungsmesssysteme angewandt werden.
Auf Wickens (2002) Multiple Resource Theory aufbauend (vgl. Abschn. 1.2), wurde ein Aufgabenkonzept erarbeitet, dass in drei sukzessiven Laborstudien evaluiert wurde. Dabei wird zwischen einer Hauptaufgabe (HA), einer visuellen und einer auditiven Nebenaufgabe (NA) unterschieden.
Bei der Hauptaufgabe handelt es sich um eine bildschirmbasierte Überwachungstätigkeit in fünf Geschwindigkeitsstufen. Auf einem Computermonitor (1920 × 1080 Pixel, 22 Zoll) wird ein Video von einer Mähdrescherfahrt aus der Egoperspektive gezeigt. Dieses Video ist generisch und kann für beliebige Überwachungssituationen wie z. B. Leitwarten oder Luftüberwachung angepasst werden. Während des Videos werden randomisiert die Buchstaben „W“, „A“ oder „D“ in fünf Frequenzstufen auf dem Bildschirm eingeblendet (alle 15, 10, 5, 3 oder 2 s, im Folgenden als Stufe 1–5 bezeichnet). Die Aufgabe der Versuchspersonen besteht darin, die angezeigten Buchstaben auf einer Computertastatur mit der linken Hand zu drücken.
Die auditive Nebenaufgabe besteht aus zehn Mal 13 Fragen, die den Versuchspersonen parallel zur Hauptaufgabe über Kopfhörer präsentiert werden. Ein Block aus 13 Fragen dauert zwei Minuten, inklusive Antworten. Die Antworten der Probanden und Probandinnen werden dabei über ein externes USB-Mikrofon aufgezeichnet. Der Fragenkatalog baut auf den Arbeiten von Batliner et al. (2006), Fernandez und Picard (2003), Scherer et al. (2008) und Wittels et al. (2002) auf und wurde unter zwei Hauptkriterien entwickelt: (1) Jeder 13-Fragen-Block sollte denselben Gesamtschwierigkeitsgrad aufweisen, um eine konstante Belastung der Versuchspersonen zu realisieren. (2) Für eine effektive Analyse verschiedener Stimmparameter (z. B. Frequenz, Jitter, Tonhöhe; vgl. Sharma und Gedeon 2012) sollten sich einzelne Wörter und Silben in den Antworten verschiedener Blöcke wiederholen. Die einzelnen Fragen werden in vier Schwierigkeitsklassen eingeteilt:
1.
Sehr gering: Wiederholung einfacher, kurzer Sätze und lautes Hochzählen von eins bis sieben, acht, neun oder zehn.
 
2.
Gering: Wiederholung zusammenhangsloser Silben und „Zungenbrecher“.
 
3.
Mittel: Einfache mathematische Operationen (z. B. „40 + 12 = ?“) und übersetzen einfacher Sätze aus dem Englischen.
 
4.
Hoch: Fragen zum Allgemeinwissen, z. B. nach Hauptstädten Europas oder Ozeanen.
 
Jeder 13-Fragen-Block enthält drei Fragen sehr geringer, vier Fragen geringer, vier Fragen mittlerer und zwei Fragen hoher Schwierigkeit. Um Reihenfolgeeffekte (vgl. z. B. Döring und Bortz 2016) zu vermeiden, werden die Fragen innerhalb der Blöcke und die Blöcke selbst randomisiert präsentiert.
Nach Wickens (2002) handelt es sich bei der Kombination Überwachung+auditive Nebenaufgabe um eine übermodale Dual-Task-Situation (visuell & auditiv) unterschiedlicher Ausführungsarten (manuell & sprachlich) und Kodierung (räumlich & verbal). Mehrfachbelegung derselben Ressource (Interferenzerscheinungen) werden nur bei Fragen der dritten und vierten Schwierigkeitsklasse erwartet, bei denen die Perzeption (Überwachung) durch zusätzliche Kognition (Finden der korrekten Antwort) angegriffen wird.
Bei der visuellen Nebenaufgabe handelt es sich um eine mentale Rotation (Eggemeier und Wilson 1991). Dabei werden im unteren rechten Bildschirmquadranten vier verschiedene Figurenpaare in einem Abstand von drei Sekunden randomisiert anzeigt. Die Figuren sind entweder zueinander gedreht (randomisierter Winkel) oder zueinander gedreht und zusätzlich gespiegelt. Die Aufgabe der Versuchspersonen besteht darin, zusätzlich zur Hauptaufgabe, mit der rechten Hand anzuzeigen, ob es sich bei der mentalen Rotation um eine Drehung (linke Pfeiltaste) oder um eine Drehung mit Spiegelung (rechte Pfeiltaste) handelt (vgl. Abb. 2).
Nach Wickens (2002) handelt es sich bei dieser Dual-Task-Situation Überwachung+Mentale Rotation um eine intramodale (visuelle) Kombination mit Bezug zu allen Verarbeitungsstufen (Überwachungsaufgabe = Perzeption, Mentale Rotation = Kognition, und Betätigen der Tastatur = Ausführung). Die Kodierung der Hauptaufgabe erfolgt sowohl räumlich (schnelles Erkennen randomisierter Buchstabenpositionen) als auch verbal (richtiges Zuordnen der präsentierten Buchstaben). Die Kodierung der visuellen Nebenaufgabe ist ausschließlich räumlich (kognitive Kongruenzprüfung). Wickens (2002) Modell folgend wird bei dieser Aufgabenkombination deutlich mehr Interferenz innerhalb der Ressourcendimensionen hervorgerufen als durch die auditive Nebenaufgabe. Folglich wird auch eine höhere psychische Beanspruchung erwartet.
Der höchste Grad psychischer Beanspruchung wird bei der Kombination aller Aufgabenteile (Hauptaufgabe + auditive + visuelle Nebenaufgabe) erwartet. Diese Triple-Task-Situation belegt alle Ressourcendimensionen der Multiple Resource Theory und führt zu erheblichen Interferenzen innerhalb dieser Dimensionen.
Zusammenfassend werden folgende Hypothesen festgehalten:
1.
Die induzierte psychische Beanspruchung der Hauptaufgabe steigt bei Kürzung der Buchstabenfrequenz an.
 
2.
Die erlebte psychische Beanspruchung der Versuchspersonen kann durch Hinzufügen von Nebenaufgaben gesteigert werden.
 
3.
Die geringste Steigerung wird durch die auditive Nebenaufgabe, eine höhere durch die visuelle Nebenaufgabe und eine sehr große durch die Kombination von visueller und auditiver Nebenaufgabe induziert.
 
Die zu entwickelnde Experimentalaufgabe soll Trainingsdaten für die mathematische Modellbildung generieren. Ein Trainingsdatensatz besteht dabei aus zwei Teilen, den Prädiktoren und der Antwortvariable (vgl. z. B. McCullagh und Nelder 2019). Bei den Prädiktoren handelt es sich in unserem Fall um physiologische Messdaten, die mit beliebigen Systemen erhoben werden können.
Psychische Beanspruchung ist umso besser messbar, je präziser die Antwortvariable des Trainingsdatensatzes sie repräsentiert. Für die zu entwickelnde Aufgabe fiel die Wahl auf die vielfach erprobte und etablierte Rating Scale Mental Effort (RSME; Zijlstra 1993), bei der die Bewertung der subjektiven Beanspruchung auf einer Skala von 0 bis 150 erfolgt. Als Orientierung dienen auf der Skala neun verbal kodifizierte Ankerpunkte von „gar nicht anstrengend“ bis „außerordentlich anstrengend“. Als Einskalen-Fragebogen bietet die RSME ein wenig invasives Messinstrument und liefert vergleichbare Beanspruchungseinschätzungen zum NASA TLX (Ghanbary Sartang et al. 2016; Longo und Orrú 2020).
Die RSME wird in dieser Arbeit zweifach angewendet: Im ersten Schritt (vgl. Abschn. 4.1) bewerten die Versuchspersonen die induzierte psychische Beanspruchung einzelner, randomisierter Aufgabenkombinationen. Im zweiten Schritt (vgl. Abschn. 5.2) wird anhand dieser Bewertung eine feste Aufgabenreihenfolge definiert, die als fertige Experimentalaufgabe zum Einsatz kommt. Mithilfe der so entwickelten Experimentalaufgabe werden zukünftig physiologische Messdaten und RSME-Bewertungen gesammelt, um individuelle, an Versuchspersonen angepasste Beanspruchungsmodelle zu errechnen.
Alle Aufgaben sind in Python (2021) implementiert und lassen sich beliebig kombinieren.

3 Laborstudien

Zwischen Juli 2020 und Mai 2021 wurden insgesamt drei Laborstudien zur Evaluierung von Kombinationen aus Haupt- und Nebenaufgaben durchgeführt. In Studie 1 wurden RSME-Bewertungen und Leistungsdaten für die Hauptaufgabe ohne Nebenaufgaben erhoben. Studie 2 diente als Vorstudie zu Studie 3. Dabei wurde der Einfluss der visuellen Nebenaufgabe untersucht, um die Validität des Gesamtvorhabens abzuschätzen. In Studie 3 wurden schließlich drei verschiedene Kombinationen aus Haupt- und Nebenaufgabe evaluiert.

3.1 Stichprobe

Das Probandenkollektiv umfasste 17 Personen (11 Frauen, 6 Männer) im Alter von 22 bis 42 Jahren (M = 26,5, SD = 4,55) in Studie 1, 8 Personen (3 Frauen, 5 Männer) im Alter von 23 bis 29 Jahren (M = 26,71, SD = 2,85) für Studie 2 und 21 Personen (9 Frauen, 12 Männer) im Alter von 20 bis 30 Jahren (M = 23,6, SD = 2,89) in Studie 3. Alle Stichproben wurden aus freiwilligen Studierenden und Mitarbeitenden des KIT rekrutiert. Die Studien wurden durch die Ethikkommission des KIT genehmigt. Alle Versuchspersonen wurden vorab über den Untersuchungsablauf, ihre Rechte und die Anonymität der Daten informiert. Einverständniserklärungen liegen vor. Es wurde darauf geachtet, dass keine Einschränkungen des Sehvermögens vorlagen bzw. dass geeignete Sehhilfen für die Experimente benutzt wurden.

3.2 Versuchsablauf

Die Studien begannen mit der Instruktion der Versuchspersonen. Die Probanden und Probandinnen wurden gebeten, eine Versuchsbeschreibung, eine Datenschutzerklärung und eine Einverständniserklärung zu lesen und zu unterschreiben. Nach Erhebung der versuchsrelevanten demografischen Daten (Geschlecht, Alter, Sehhilfen) und der Beantwortung von Fragen nahmen die Versuchspersonen vor einem Bildschirm Platz, um das Experiment durch Drücken der Leertaste selbständig zu beginnen (vgl. Abb. 3). Bei allen drei Studien wurden die Teilnehmenden angewiesen, eine korrekte Antwort einer möglichst schnellen Antwort vorzuziehen.
Die Erhebung von Studie 1 fand zwischen Juli und August 2020 statt und galt der Evaluierung der Hauptaufgabe ohne Nebenaufgaben (vgl. Abschn. 2). Jede Frequenzstufe wurde zwei Minuten lang anzeigt, gefolgt von 15 s Pause ohne Anzeige weiterer Buchstaben. In diesem Zeitfenster bewerteten die Versuchspersonen ihre subjektiv empfundene psychische Beanspruchung auf einer Skala von 0 bis 150 (RMSE). Das Experiment begann und endete mit einer 60-sekündigen Baseline, während der das Video weiterlief, aber keine Buchstaben angezeigt wurden. Jeder Proband und jede Probandin absolvierte zwei Durchläufe, unterbrochen durch eine kurze Pause. Der erste Durchgang wurde als Übungsphase gewertet. Die gesamte Versuchsdurchführung dauerte 29 min exklusive Anleitung.
Studie 2 lief im September 2020 in Vorbereitung zu Studie 3. Studie 2 erweiterte Studie 1 bei identischer Hauptaufgabe um die Einblendung einer visuellen Nebenaufgabe in Form einer mentalen Rotation im unteren rechten Bildschirm-Quadranten.
Studie 3 fand zwischen Februar und April 2021 statt. In dieser Studie wurde die Versuchsdurchführung um eine Übungsphase ergänzt, in der drei Aufgabenkombinationen separat bearbeitet werden. Die Übungszeit für die Hauptaufgabe und für die visuelle Nebenaufgabe betrug jeweils zwei Minuten. Die Übung zur auditiven Nebenaufgabe bestand aus drei Fragen, die über Kopfhörer präsentiert wurden. Nach der Übungsphase wurden in randomisierter Reihenfolge drei Aufgabenkombinationen präsentiert: HA+visuelle NA, HA+auditive NA, HA+auditive NA+visuelle NA.
Analog den zu Studien 1 und 2 wurde auch jede Stufe der Studie 3 zwei Minuten lang bearbeitet. Nach jeder Stufe hatten die Versuchspersonen 15 s Zeit zur Abgabe ihrer RSME-Bewertung. Zwischen den Aufgabenkombinationen gab es eine kurze Pause, und jede Kombination begann und endete mit einer 60-sekündigen Baseline, während der das Video ohne Anzeige von Haupt- oder Nebenaufgaben weiterlief. Ein Versuch dauerte 46 min exklusive Anleitung.
Um Reihenfolgeeffekte (vgl. z. B. Döring und Bortz 2016) bei der Präsentation der Stufen und der Aufgabenkombinationen zu vermeiden, wurden sowohl die Stufen der Hauptaufgabe (Studie 1, 2 und 3) innerhalb der Aufgabenkombinationen, als auch die Reihenfolge der Kombinationen (Studie 3) randomisiert. Nach der Instruktion der Versuchspersonen sowie der Beantwortung von Fragen, verließ die Versuchsleitung den Raum und verfolgte den Ablauf auf duplizierten Monitoren in einem angrenzenden Laborraum. Damit sollten zum einen das Übertragungsrisiko von Covid-19 Infektionen und zum anderen potenzielle Versuchsleiter-Effekte (z. B. Erwartungs- oder Pygmalion-Effekt, vgl. Städtler 1998) verringert werden.

3.3 Statistische Auswertung

Die aufgenommenen Daten wurden mit der Software IBM Statistics 26 (IBM 2021) und Matlab 2021a (Mathworks 2021) ausgewertet. Die Studien 1 und 3 erfüllen, falls nicht anders beschrieben, die Anforderungen an parametrische Auswerteverfahren (Field 2013): Intervallskalierung und Normalverteilung der abhängigen Variable. Für messwiederholte (ein- oder zweifaktorielle) ANOVAs wurde zusätzlich auf Sphärizität (vgl. Mauchly 1940) und bei konventionellen ANOVAs auf Varianzhomogenität (Levene’s Test; vgl. Field 2013) geprüft. Sollte die Annahme der Sphärizität verletzt sein, wird eine Greenhouse-Geisser Korrektur angewandt.
Aufgrund von Varianzheterogenität wurde bei der der Analyse der Fehler der Hauptaufgabe (Abschn. 4.2.4) eine Welch-ANOVA anstatt einer konventionellen ANOVA berechnet (Welch 1947).
Bei der Analyse der Fehler der auditiven Nebenaufgabe (Abschn. 4.2.6) wird trotz einer Verletzung der Annahme der Normalverteilung eine messwiederholte ANOVA berechnet. Schminder et al. (2010) untersuchten den Einfluss der Verletzung der Normalverteilungsannahme auf die konventionelle ANOVA und Oberfeld und Franke (2013) auf die messwiederholte ANOVA. Beide Berichte kommen zu dem Schluss, dass die ANOVA robust gegenüber einer Verletzung der Normalverteilungsannahme ist.
Post-Hoc paarweise Vergleiche wurden mit der konservativen Bonferroni-Korrektur durchgeführt. Die Berechnung der Effektstärke erfolgte über das partielle Eta-Quadrat, und einer Bewertung nach Cohen (1988) mit geringen (0,1–0,3), mittleren (0,3–0,5) und stärkeren (>0,5) Effekten. Die Ergebnisse aus Studie 2 wurden auf Grund der geringen Stichprobengröße und ihrer Einstufung als Vorstudie nicht statistisch analysiert.

4 Ergebnisse

In diesem Abschnitt werden die Ergebnisse der statistischen Analyse der subjektiven Beanspruchungsbewertung (RSME) und der Leistungsdaten (Reaktionszeit und Fehlerrate) dargestellt. Die Leistungsdaten werden dabei getrennt nach Aufgabentyp betrachtet (Hauptaufgabe, visuelle oder auditive Nebenaufgabe).

4.1 Subjektive Beanspruchung (RSME)

Tab. 1 zeigt einen Überblick der gemittelten subjektiven Beanspruchung der Studien 1, 2 und 3. Die deskriptiven Daten lassen bereits einen Trend im Hinblick auf die zu überprüfenden Hypothesen (vgl. Abschn. 2) erkennen: Die Erhöhung der Buchstabenfrequenz (Hypothese 1), das Hinzufügen von Nebenaufgaben (Hypothese 2) und deren Kombinationen (Hypothese 3) führen zu einem quasi-monoton steigenden Verlauf der psychischen Beanspruchung (vgl. Abb. 4).
Tab. 1
Deskriptive Statistik
Table 1
Descriptive statistics
 
N
Nebenaufgabe
Stufe
M (RSME)
SD (RSME)
Studie 1
17
Keine
Stufe 1
25,76
14,22
Stufe 2
28,59
13,71
Stufe 3
33,24
17,19
Stufe 4
31,82
16,22
Stufe 5
45,29
22,49
Studie 2
8
Visuell
Stufe 1
56,00
16,19
Stufe 2
66,00
22,48
Stufe 3
67,14
14,96
Stufe 4
75,00
19,37
Stufe 5
79,29
14,27
Studie 3
21
Auditiv
Stufe 1
38,29
20,54
Stufe 2
43,62
20,47
Stufe 3
47,19
18,95
Stufe 4
50,10
19,66
Stufe 5
49,52
21,41
Visuell
Stufe 1
47,14
19,30
Stufe 2
49,52
19,03
Stufe 3
56,86
19,31
Stufe 4
54,14
18,45
Stufe 5
65,00
17,25
Auditiv + visuell
Stufe 1
80,29
20,76
Stufe 2
77,95
22,08
Stufe 3
78,00
18,93
Stufe 4
80,00
17,06
Stufe 5
94,05
18,47
Eine einfaktorielle Varianzanalyse (ANOVA) mit Messwiederholung und Greenhouse-Geisser Korrektur ergab, dass sich die RSME-Bewertung der fünf Stufen in Studie 1 statistisch signifikant mit geringer Effektstärke unterscheiden (F (1,96, 31,35) = 6,092, p = 0,006, partielles η2 = 0,276). Mit einem Bonferroni Post-Hoc-Test waren keine signifikanten Unterschiede zwischen den einzelnen Stufen festzustellen.
Eine zweifaktorielle ANOVA mit Messwiederholung mit den Ergebnissen aus Studie 3 zeigte, dass sich die RSME-Bewertung sowohl für die Aufgabenkombinationen mit starkem Effekt (F (2,40) = 54,834, p < 0,001, partielles η2 = 0,733), als auch für die Frequenzstufen mit mittlerem Effekt (F (4,80) = 18,265, p < 0,001, partielles η2 = 0,477) signifikant unterscheiden. Zwischen den Kombinationen und den Frequenzstufen bestehen geringe Interaktionseffekte (F (8,160) = 2,754, p = 0,007, partielles η2 = 0,121).
Die Untersuchung der Interaktionseffekte durch Sichtung der Profildiagramme ergab eine hybride Interaktion. Die Randmittel des Faktors „Aufgabenkombination“ verlaufen mit ähnlichem Trend, ohne Überschneidungen. Die Linienzüge des Faktors „Stufen“ überschneiden sich für die Stufen 4 & 3 und 1 & 2. Daraus folgt, dass der Haupteffekt der Aufgabenkombination uneingeschränkt und der Haupteffekt der Stufen nur unter Vorbehalt interpretiert werden können (vgl. Field 2013). Tab. 2 stellt die Ergebnisse eines Bonferroni-Post-Hoc-Tests der Aufgabenkombinationen dar. Tab. 3 enthält alle signifikanten Ergebnisse der Stufen über die Kombinationen hinweg.
Tab. 2
Post-Hoc-Test der Aufgabenkombinationen aus Studie 3 (RSME)
Table 2
Post-hoc-test of task combinations from study 3 (RSME)
Sample 1
Sample 2
Mittelwertdifferenz
Sig.
Visuelle NA
Auditive NA
±8,790
0,070
Visuelle NA
Visuelle + Auditive NA
±27,524
<0,001
Auditive NA
Visuelle + Auditive NA
±36,314
<0,001
Tab. 3
Post-Hoc-Test der Frequenzstufen aus Studie 3 (RSME)
Table 3
Post-hoc-test of frequency-levels from study 3 (RSME)
Sample 1
Sample 2
Mittelwertdifferenz
Sig.
Stufe 1
Stufe 3
±5,444
0,027
Stufe 1
Stufe 4
±6,175
0,021
Stufe 1
Stufe 5
±14,286
<0,001
Stufe 2
Stufe 5
±12,492
<0,001
Stufe 3
Stufe 5
±8,841
<0,001
Stufe 4
Stufe 5
±8,111
<0,001

4.2 Leistungsdaten

4.2.1 Reaktionszeit der Hauptaufgabe

Die Mittelwerte der Reaktionszeiten der Hauptaufgabe sind in Abb. 5 dargestellt.
Eine einfaktorielle ANOVA mit Messwiederholung und Greenhouse-Geisser Korrektur über die mittleren Reaktionszeiten je Stufe aus Studie 1 zeigte signifikante Unterschiede mit mittlerer Effektstärke (F (1,84, 29,50) = 8,030, p = 0,002, partielles η2 = 0,334). Signifikante Ergebnisse des Bonferroni-Post-Hoc-Vergleichs sind in Tab. 4 dargestellt.
Tab. 4
Post-Hoc-Test der Frequenzstufen aus Studie 1 (Reaktionszeiten)
Table 4
Post-hoc-test of frequency-levels from study 1 (reaction times)
Sample 1
Sample 2
Mittelwertdifferenz
Sig.
Stufe 1
Stufe 3
±115,673 [ms]
<0,001
Stufe 1
Stufe 4
±135,238 [ms]
0,003
Stufe 1
Stufe 5
±165,603 [ms]
<0,001
Die Reaktionszeiten in Studie 3 wurden mit einer zweifaktoriellen ANOVA mit Messwiederholung und Greenhouse-Geisser Korrektur untersucht. Die Ergebnisse zeigen, dass sich die Reaktionszeit sowohl für die Kombinationen mit starkem Effekt (F (2,34) = 21,984, p < 0,001, partielles η2 = 0,564) als auch für die Stufen mit starkem Effekt (F (2,643, 27,133) = 28,524, p < 0,001, partielles η2 = 0,627) signifikant unterscheiden. Zwischen den Kombinationen und den Frequenzstufen bestehen keine signifikanten Interaktionseffekte (F (4,935, 83,894) = 1,843, p = 0,114, partielles η2 = 0,098). Alle signifikanten Ergebnisse eines Bonferroni-Post-Hoc-Tests der Aufgabenkombinationen und der Stufen sind in den Tab. 5 und 6 dargestellt.
Tab. 5
Post-Hoc-Test der Aufgabenkombinationen aus Studie 3 (Reaktionszeiten)
Table 5
Post-hoc-test of task combinations from study 3(reaction times)
Sample 1
Sample 2
Mittelwertdifferenz
Sig.
Auditive NA
Visuelle NA
±43 [ms]
<0,001
Auditive NA
Auditive + Visuelle NA
±51 [ms]
<0,001
Tab. 6
Post-Hoc-Test der Frequenzstufen aus Studie 3 (Reaktionszeiten)
Table 6
Post-hoc-test of frequency-levels from study 3 (reaction times)
Sample 1
Sample 2
Mittelwertdifferenz
Sig.
Stufe 1
Stufe 3
±42 [ms]
0,011
Stufe 1
Stufe 4
±55 [ms]
<0,001
Stufe 1
Stufe 5
±86 [ms]
<0,001
Stufe 2
Stufe 4
±44 [ms]
<0,001
Stufe 2
Stufe 5
±74 [ms]
<0,001
Stufe 3
Stufe 5
±44 [ms]
<0,001
Stufe 4
Stufe 5
±30 [ms]
0,010

4.2.2 Reaktionszeit der visuellen Nebenaufgabe

Die Reaktionszeit für die visuelle Nebenaufgabe kann nur für zwei Kombinationen – visuelle NA+HA und visuelle NA+auditive NA+HA – in Studie 3 erhoben werden. Eine zweifaktorielle ANOVA mit Messwiederholung und Greenhouse-Geisser Korrektur ergab keine signifikanten Unterschiede in den Reaktionszeiten, weder zwischen den Kombinationen (F (1,19) = 0,07, p = 0,794, partielles η2 = 0,004), noch zwischen den Stufen (F (4,76) = 0,756, p = 0,557, partielles η2 = 0,038).

4.2.3 Reaktionszeit der auditiven Nebenaufgabe

Die Mittelwerte der Reaktionszeiten der auditiven Nebenaufgabe sind in Abb. 6 dargestellt. Analog zu Abschn. 4.2.2 wurde die auditive Nebenaufgabe in zwei von drei Kombinationen in Studie 3 präsentiert. Eine zweifaktorielle ANOVA mit Messwiederholung und Greenhouse-Geisser Korrektur über die Reaktionszeiten ergab signifikante Haupteffekte sowohl zwischen den Kombinationen mit starkem Effekt (F (1,20) = 23,518, p < 0,001, partielles η2 = 0,540) als auch zwischen den Stufen mit geringem Effekt (F (2,718, 54,361) = 3,455, p = 0,026, partielles η2 = 0,147). Zwischen den Kombinationen und den Frequenzstufen bestehen geringe Interaktionseffekte (F (2,581, 51.630) = 3,349, p = 0,032, partielles η2 = 0,143). Die Sichtung der Profildiagramme (vgl. Field 2013) zeigt, dass zwischen dem Faktor „Kombination“ keine Interaktionseffekte bestehen. Im Faktor „Stufe“ treten jedoch Überschneidungen der Linienzüge für die Stufen 1–4 auf; dieser Haupteffekt kann nicht ohne Einschränkungen interpretiert werden. Ein Bonferroni-Post-Hoc-Test der Stufen über die Kombinationen hinweg ergab keine signifikanten Ergebnisse.

4.2.4 Fehler bei der Hauptaufgabe

Abb. 7 stellt die Mittelwerte der Fehler dar, die von den Versuchspersonen bei der Bearbeitung der Hauptaufgabe gemacht wurden.
Unter dem Begriff „Fehler“ werden dabei sowohl falsch ausgewählte Buchstaben (z. B. „W“ angezeigt, „A“ ausgewählt), als auch übersprungene Buchstaben (keine Reaktion auf Stimulus) zusammengefasst (analog auch in Abschn. 4.2.5 und 4.2.6). Aufgrund der Beschaffenheit der Hauptaufgabe ergibt sich, dass Fehler nicht zwischen den Frequenzstufen verglichen werden können: In jeder Stufe werden unterschiedlich viele Buchstaben angezeigt, bspw. in Stufe 1 acht und in Stufe 5 sechzig Stück. Ein Fehler in Stufe 1 kann nicht mit einem Fehler in Stufe 5 gleichgesetzt werden, weil in Stufe 5 insgesamt mehr Stimuli angezeigt werden und so ein größeres Fehlerpotential besteht.
Aus Sicht der Autoren ist auch die Bildung eines Fehlerquotienten (gemachte Fehler/angezeigt Buchstaben), aus obengenannten Gründen nicht zielführend. Stattdessen werden die Stufen getrennt voneinander betrachtet und dabei zwischen den Aufgabenkombinationen differenziert.
In ihrem Artikel verglichen Delacre et al. (2019) dein Einfluss verschiedener Annahmenverletzungen auf die Alpha-Fehler von ANOVA, Welch-ANOVA und Brown-Forsythe Test. Die Autoren kamen zu dem Ergebnis, dass die Welch-ANOVA bei ungleichen Stichprobengrößen und Varianzheterogenität im Vergleich die zuverlässigsten Ergebnisse liefert und sich die Alpha-Fehlerrate innerhalb der von Bradley (1978) definierten Grenzwerte bewegt. Aufgrund von vorliegender Varianzheterogenität und der unterschiedlichen Stichprobengröße werden die Ergebnisse der Studien 1 und 3 in einer einfaktoriellen Welch ANOVA kombiniert untersucht. Die Haupteffekte und alle signifikanten Ergebnisse der Bonferroni-Post-Hoc-Tests sind in Tab. 7 dargestellt.
Tab. 7
Haupteffekte und Post-Hoc-Tests der Stufen 1–5 aus den Studien 1 und 3 (Fehler)
Table 7
Main Effects and post-hoc-tests of levels 1–5 from studies 1 and 3 (errors)
Stufe 1 Haupteffekt: F (3, 41,90) = 27,192, p < 0,001, partielles η2 = 0,385
Sample 1
Sample 2
Mittelwertdifferenz
Sig.
Keine NA
Auditive NA
±2,70
<0,001
Keine NA
Visuelle NA
±3,80
<0,001
Keine NA
Auditive + Visuelle NA
±3,42
<0,001
Stufe 2 Haupteffekt: F (3, 42,08) = 14,995, p < 0,001, partielles η2 = 0,367
Sample 1
Sample 2
Mittelwertdifferenz
Sig.
Keine NA
Auditive NA
±2,60
0,016
Keine NA
Visuelle NA
±4,70
<0,001
Keine NA
Auditive + Visuelle NA
±4,88
<0,001
Auditive NA
Auditive + Visuelle NA
±2,29
0,030
Stufe 3 Haupteffekt: F (3, 40,20) = 28,219, p < 0,001, partielles η2 = 0,504
Sample 1
Sample 2
Mittelwertdifferenz
Sig.
Keine NA
Auditive NA
±4,28
0,016
Keine NA
Visuelle NA
±8,14
<0,001
Keine NA
Auditive + Visuelle NA
±11,37
<0,001
Auditive NA
Visuelle NA
±3,86
0,024
Auditive NA
Auditive + Visuelle NA
±7,10
<0,001
Stufe 4 Haupteffekt: F (3, 37,76) = 46,696, p < 0,001, partielles η2 = 0,452
Sample 1
Sample 2
Mittelwertdifferenz
Sig.
Keine NA
Auditive NA
±10,31
<0,001
Keine NA
Visuelle NA
±14,41
<0,001
Keine NA
Auditive + Visuelle NA
±18,64
<0,001
Auditive NA
Auditive + Visuelle NA
±8,33
0,003
Stufe 5 Haupteffekt: F (3, 37,56) = 60,756, p < 0,001, partielles η2 = 0,595
Sample 1
Sample 2
Mittelwertdifferenz
Sig.
Keine NA
Auditive NA
±14,43
<0,001
Keine NA
Visuelle NA
±20,24
<0,001
Keine NA
Auditive + Visuelle NA
±28,36
<0,001
Auditive NA
Auditive + Visuelle NA
±13,95
<0,001
Visuelle NA
Auditive + Visuelle NA
±8,14
0,015

4.2.5 Fehler bei der visuellen Nebenaufgabe

Die Mittelwerte der Fehler der visuellen Nebenaufgabe sind in Abb. 8 in einem gestapelten Balkendiagramm dargestellt. Die unteren Balkenteile repräsentieren dabei die falsch identifizierten Formenpaare. Die oberen Balkensegmente zeigen die verpassten Formenpaare, also keine Eingabe der Versuchspersonen.
Eine zweifaktorielle ANOVA mit Messwiederholung zeigt sowohl einen signifikanten Unterschied mit starkem Effekt für die Fehlerrate zwischen den Aufgabenkombinationen HA+visuelle NA und HA+auditive+visuelle NA (F (1,20) = 45,808, p < 0,001, partielles η2 = 0,696) als auch einen signifikanten Unterschied mit geringem Effekt für die Frequenzstufen (F (4,80) = 4,559, p = 0,002, partielles η2 = 0,187). Zwischen der Aufgabenkombination und den Stufen bestehen keine Interaktionseffekte. Zwischen den Frequenzstufen konnten post-hoc keine Unterschiede in den Fehlerraten der visuellen Nebenaufgabe gefunden werden.

4.2.6 Fehler bei der auditiven Nebenaufgabe

Die Mittelwerte der Fehler der auditiven Nebenaufgabe sind in Abb. 9 dargestellt. Eine zweifaktorielle ANOVA mit Messwiederholung zeigte signifikante Unterschiede zwischen den Fehlerraten der Kombinationen HA+auditive NA und HA+auditive+visuelle NA mit geringer Effektstärke (F (1,20) = 7,427, p = 0,013, partielles η2 = 0,271). Zwischen den Stufen über die Kombinationen hinweg konnte kein signifikanter Unterschied festgestellt werden (F (4,80) = 1,602, p = 0,182, partielles η2 = 0,074). Gleichermaßen bestehen keine Interaktionseffekte zwischen den Aufgabenkombinationen und Frequenzstufen.

5 Diskussion

Nachfolgend werden die in Abschn. 2 formulierten Hypothesen auf ihre Gültigkeit geprüft, eine neue Experimentalaufgabe erarbeitet, die Limitationen dieser Arbeit beschrieben und ein Ausblick auf zukünftige Forschungsarbeiten gegeben.

5.1 Bewertung der Hypothesen

Die Hypothese 1 einer ansteigenden psychischen Belastung bei steigender Aufgabenfrequenz kann teilweise bestätigt werden. Studie 1 ergab keine signifikanten Unterschiede der subjektiven Bewertung über die fünf Frequenzstufen. In Studie 3 konnte ein Unterschied nur dann nachgewiesen werden, wenn mindestens eine Stufe zwischen den Paaren liegt, mit Ausnahme zwischen Stufe 4 und 5. Sowohl in Studie 1 als auch in Studie 3 unterscheiden sich die Reaktionszeiten der Stufen signifikant voneinander. Dabei fällt die Reaktionszeit mit sinkender Buchstabenfrequenz. Dieser Effekt kann teilweise anhand De Waards (1996) n-Förmigen Beanspruchungs-Leistungsverlauf erklärt werden: Zu geringe Beanspruchung einer Versuchsperson (Unterforderung) kann zu Monotonie, Konzentrationsverlust und damit zu Leistungseinbußen führen. Eine höhere Buchstabenfrequenz fördert die Konzentration, erleichtert das Erkennen von Zeit-Mustern (die Buchstaben erscheinen weniger „überraschend“) und führt zur Leistungssteigerung. Die Fehlerrate lässt keine Schlüsse auf Unterschiede zwischen den Stufen zu (vgl. Abschn. 4.2.4). Zusammenfassend lässt sich sagen, dass es Unterschiede zwischen den Stufen gibt, die induzierte psychische Beanspruchung von Stufe 1 bis 5 ansteigt, jedoch keine Unterschiede in aneinander angrenzenden Stufen nachgewiesen werden konnten.
Hypothese 2 einer ansteigenden psychischen Belastung bei hinzukommenden Nebenaufgaben kann durch einen signifikanten Haupteffekt bei dem Vergleich der RSME-Bewertungen aus Studie 3 in Abschn. 4.1 als erfüllt betrachtet werden. Die Analyse der Fehlerraten bestärkt diese Erkenntnis: Wird eine Nebenaufgabe hinzugefügt, steigt die Fehlerrate in der Hauptaufgabe signifikant an (vgl. Abschn. 4.2.4).
Hypothese 3 vermutete die geringste Steigerung der psychischen Belastung durch die auditive Nebenaufgabe, eine höhere durch die visuelle Nebenaufgabe und eine sehr große durch die Kombination von visueller und auditiver Nebenaufgabe. Die Ergebnisse der subjektiven Beanspruchungsbewertung aus Studie 3 zeigen, dass sich die Kombinationen signifikant voneinander unterscheiden. Obwohl in einem Post-Hoc-Test kein signifikanter Unterschied zwischen den Kombinationen HA+visuelle NA und HA+auditive NA festgestellt werden konnte, unterstützen die Mittelwertdifferenzen die erwartete Reihenfolge aus Hypothese 3. Für die Hauptaufgabe erhöht sich die durchschnittliche Reaktionszeit je Kombination erwartungsgemäß in der Reihenfolge HA+auditive NA, HA+visuelle NA bis HA+auditive NA+visuelle NA. Analog steigt die Reaktionszeit der auditiven Nebenaufgabe, wenn zeitgleich die Hauptaufgabe und die visuelle Nebenaufgabe präsentiert werden. Die Analyse der Fehlerraten und Reaktionszeiten konsolidiert diese Einschätzung: mit Ausnahme von Stufe 1 steigen die Fehleranzahl in der Hauptaufgabe und die Reaktionszeit der auditiven Nebenaufgabe wie erwartet an. Die Kombination beider Nebenaufgaben führt dabei zu den meisten Fehlern und zur längsten Reaktionszeit. Zusammenfassend kann Hypothese 3 angenommen werden.

5.2 Konzept der Experimentalaufgabe

Eine Experimentalaufgabe, die ein breites Beanspruchungsspektrum in Versuchspersonen zuverlässig und reproduzierbar induzieren kann, muss so entwickelt werden, dass sich aufeinanderfolgende Teilaufgaben in der induzierten Beanspruchung signifikant unterscheiden. Ansonsten kann ein physiologisches Messsystem keinen Unterschied detektieren. Aus den Ergebnissen der drei Studien und den Anforderungen, die Belastung gezielt zu variieren und Wiedererkennungseffekte zu minimieren (vgl. Städtler 1998), lassen sich die folgenden drei Bedingungen an die Reihenfolge der Aufgabenkombinationen ableiten:
1.
Aufeinanderfolgende Teilaufgaben sollen sich in der Buchstabenfrequenz unterschieden.
 
2.
Dieselbe Teilaufgabe soll in der Experimentalaufgabe nicht wiederholt werden.
 
3.
Aufeinanderfolgende Teilaufgaben sollen sich in der Nebenaufgabe unterschieden.
 
Daraus ergibt sich die in Abb. 10 dargestellte Teilaufgabenreihenfolge, die schließlich als eine zusammenhängende Experimentalaufgabe mit Übungsdurchgängen für die Haupt- und Nebenaufgaben und mit Zeitfenstern für Baseline-Messungen (relevant für z. B. Herzfrequenzanalysen) in Python (2021) implementiert wurde.
Im Programmablauf erscheint auf dem Computermonitor nach jeder Teilaufgabe (vgl. Abb. 10) ein Fenster, in dem die Versuchspersonen ihre subjektiv empfundene Beanspruchung anhand der RSME bewerten können. Diese Daten lassen sich in Kombination mit physiologischen Prädiktoren als Antwortvariablen für die Modellbildung verwenden (vgl. Abschn. 2). Durch eine solche Datenerhebung werden individuelle Unterschiede zwischen den Personen berücksichtigt. So ist es etwa denkbar, dass eine Person, die Deutsch als Fremdsprache spricht, die auditive Nebenaufgabe aufgrund der höheren kognitiven Beanspruchung durch die Fremdsprache (vgl. z. B. Costa 2020) beanspruchender empfindet als die visuelle Nebenaufgabe. Die entsprechend höhere Bewertung und die korrespondierenden physiologischen Reaktionen werden trotz der Abweichung zum erwarteten Beanspruchungszustand korrekt zugeordnet.

5.3 Limitationen und Ausblick

Einschränkungen bei der Interpretation der Ergebnisse sind die geringen Stichprobengrößen (N1 = 17, N2 = 8, N3 = 21) und die Vergleichbarkeit der Studien 1, 2 und 3 untereinander.
Oberfeld und Franke (2013) untersuchten in ihrem Artikel den Einfluss verschiedener Stichprobengrößen (N = 3 bis 100), Faktorstufen (K = 4, 8, 16) und Verteilungsformen (normal, nicht normal) auf den Alpha-Fehler univarianter und multivarianter Testverfahren, unter anderem auch für die hier verwendete messwiederholte ANOVA mit Greenhouse-Geisser Korrektur. Die Autoren zeigten, dass sich der Alpha-Fehler, unter Annahme einer Normalverteilung, ab einer Stichprobengröße von N = 8 bei K = 4 und N = 16 bei K = 16 in dem von Bradley (1978) definierten Intervall für akzeptable Alpha-Fehler-Abweichungen bewegt.
Stiger et al. (1998) untersuchten in ihrem Artikel nicht nur den Einfluss kleinerer Stichproben (N = 20), sondern auch den Effekt einer ordinalskalierten abhängigen Variable auf u. a. messwiederholte ANOVA mit und ohne Greenhouse-Geisser Korrektur. Unter Annahme einer Normalverteilung kommen die Autoren auch hier zu dem Schluss, dass eine messwiederholte ANOVA mit kleineren Stichproben keine übermäßige Abweichung zum erwarteten Alpha-Fehler aufweist.
Aufgrund limitierender Maßnahmen zur Kontaktbeschränkung und längerer Schließungen der Laborräume durch die Corona-Pandemie konnten weniger Versuchspersonen rekrutiert und getestet werden als üblich. Mit N = 17, N = 21 und maximal 2 Faktoren (5 Stufen und 3 Aufgabenkombinationen) wird nach Oberfeld und Franke (2013) und Stiger et al. (1998) keine relevante Beeinträchtigung der ANOVA durch die Stichprobengröße in dieser Arbeit erwartet.
Die Studien 1, 2 und 3 unterscheiden sich nicht im Aufbau der Hauptaufgabe (Frequenzen, Bearbeitungszeit der Kombinationen und Evaluation), fanden jedoch in unterschiedlichen Zeiträumen und mit leicht abweichenden Randbedingungen statt, wie z. B. einer gegenüber den Studien 1 und 2 modifizierten Übungsphase der Studie 3. Aus unserer Sicht ist eine Vergleichbarkeit der 3 Studien grundsätzlich gegeben. Im Zuge der Anwendung der hier entwickelten Experimentalaufgabe in bevorstehenden Experimenten wird die Validität der Ergebnisse fortlaufend weiter überprüft werden.
Trotz der beschriebenen Einschränkungen können die Hypothesen 1 und 3 mit Vorbehalt und die Hypothese 2 vollständig angenommen werden. Durch die strategische Kombination von Frequenzstufen mit Nebenaufgaben unter zusätzlicher Variation ihrer Reihenfolge konnte eine Experimentalaufgabe entwickelt werden, die 20 erhebliche Belastungswechsel mit einem Spektrum von geringer bis sehr hoher Beanspruchung (vgl. Abb. 7) in Versuchspersonen induziert. Aufbauend auf diesen Ergebnissen soll in zukünftigen Studien ein System zur Messung psychischer Beanspruchung durch physiologische Indikatoren entworfen und erprobt werden.

Danksagung

Ein ganz herzlicher Dank gilt allen Versuchspersonen für ihre Teilnahme an den Laborexperimenten und dem Bundesministerium für Bildung und Forschung (BMBF) für ihre Förderung des Projekts „Fahrerkabine 4.0“.
Open Access Dieser Artikel wird unter der Creative Commons Namensnennung 4.0 International Lizenz veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Artikel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Weitere Details zur Lizenz entnehmen Sie bitte der Lizenzinformation auf http://​creativecommons.​org/​licenses/​by/​4.​0/​deed.​de.
Literatur
Zurück zum Zitat Batliner A, Steidl S, Schuller B, Seppi D, Laskowski K, Vogt T, Aharonson V (2006) Combining efforts for improving automatic classification of emotional user states Batliner A, Steidl S, Schuller B, Seppi D, Laskowski K, Vogt T, Aharonson V (2006) Combining efforts for improving automatic classification of emotional user states
Zurück zum Zitat Bornewasser M, Bläsing D, Hinrichsen S (2018) Informatorische Assistenzsysteme in der manuellen Montage: Ein nützliches Werkzeug zur Reduktion mentaler Beanspruchung? Z Arb Wiss 72(4):264–275CrossRef Bornewasser M, Bläsing D, Hinrichsen S (2018) Informatorische Assistenzsysteme in der manuellen Montage: Ein nützliches Werkzeug zur Reduktion mentaler Beanspruchung? Z Arb Wiss 72(4):264–275CrossRef
Zurück zum Zitat Cohen J (1988) Statistical power analysis for the behavioral sciences. Lawrence Erlbaum, New York, S 567MATH Cohen J (1988) Statistical power analysis for the behavioral sciences. Lawrence Erlbaum, New York, S 567MATH
Zurück zum Zitat Costa A (2020) The Bilingual Brain: And what it tells us about the science of language. Penguin, Costa A (2020) The Bilingual Brain: And what it tells us about the science of language. Penguin,
Zurück zum Zitat De Waard D (1996) The measurement of drivers’ mental workload. The Traffic Research Centre VSC, University of Groningen, De Waard D (1996) The measurement of drivers’ mental workload. The Traffic Research Centre VSC, University of Groningen,
Zurück zum Zitat Diederichs F, Knauss A, Wilbrink M, Lilis Y, Chrysochoou E, Anund A, Bekiaris E, Nikolaou S, Finer S, Zanovello L, Maroudis P, Krupenia S, Abser A, Dimokas N, Apoy C, Karlsson J, Larsson A, Zidianakis E, Efa A, Widlroither H, Dai M, Teichmann D, Sanatnama H, Wendemuth A, Bischoff S (2020) Adaptive transitions for automation in cars, trucks, buses and motorcycles. Intell Transport Syst 14(8):889–899CrossRef Diederichs F, Knauss A, Wilbrink M, Lilis Y, Chrysochoou E, Anund A, Bekiaris E, Nikolaou S, Finer S, Zanovello L, Maroudis P, Krupenia S, Abser A, Dimokas N, Apoy C, Karlsson J, Larsson A, Zidianakis E, Efa A, Widlroither H, Dai M, Teichmann D, Sanatnama H, Wendemuth A, Bischoff S (2020) Adaptive transitions for automation in cars, trucks, buses and motorcycles. Intell Transport Syst 14(8):889–899CrossRef
Zurück zum Zitat DIN EN ISO 10075‑1, 2018-01-00: Ergonomische Grundlagen bezüglich psychischer Arbeitsbelastung – Teil 1: Allgemeine Aspekte und Konzepte und Begriffe (ISO 10075-1:2017); Deutsche Fassung EN ISO 10075-1:2017. DIN EN ISO 10075‑1, 2018-01-00: Ergonomische Grundlagen bezüglich psychischer Arbeitsbelastung – Teil 1: Allgemeine Aspekte und Konzepte und Begriffe (ISO 10075-1:2017); Deutsche Fassung EN ISO 10075-1:2017.
Zurück zum Zitat Döring N, Bortz J (2016) Forschungsmethoden und Evaluation. Springer, Wiesbaden Döring N, Bortz J (2016) Forschungsmethoden und Evaluation. Springer, Wiesbaden
Zurück zum Zitat Eggemeier TF, Wilson GF (1991) Performance-based and subjective assessment of workload in multi-task environments. In: Damos DL (Hrsg) Multiple-task performance. Taylor & Francis, London, Washington, S 217–275 Eggemeier TF, Wilson GF (1991) Performance-based and subjective assessment of workload in multi-task environments. In: Damos DL (Hrsg) Multiple-task performance. Taylor & Francis, London, Washington, S 217–275
Zurück zum Zitat Eichhorst W, Buhlmann F (2015) Die Zukunft der Arbeit und der Wandel der Arbeitswelt (No. 77). IZA Standpunkte Eichhorst W, Buhlmann F (2015) Die Zukunft der Arbeit und der Wandel der Arbeitswelt (No. 77). IZA Standpunkte
Zurück zum Zitat Faure V, Lobjois R, Benguigui N (2016) The effects of driving environment complexity and dual tasking on drivers’ mental workload and eye blink behavior. Transp Res Part F Traffic Psychol Behav 40:78–90CrossRef Faure V, Lobjois R, Benguigui N (2016) The effects of driving environment complexity and dual tasking on drivers’ mental workload and eye blink behavior. Transp Res Part F Traffic Psychol Behav 40:78–90CrossRef
Zurück zum Zitat Fernandez R, Picard RW (2003) Modeling drivers’ speech under stress. Speech Commun 40(1–2):145–159MATHCrossRef Fernandez R, Picard RW (2003) Modeling drivers’ speech under stress. Speech Commun 40(1–2):145–159MATHCrossRef
Zurück zum Zitat Field A (2013) Discovering statistics using IBM SPSS statistics. SAGE, London Field A (2013) Discovering statistics using IBM SPSS statistics. SAGE, London
Zurück zum Zitat Ghanbary Sartang A, Ashnagar M, Habibi E, Sadeghi S (2016) Evaluation of Rating Scale Mental Effort (RSME) effectiveness for mental workload assessment in nurses. J Occup Health Epidemiol 5(4):211–217CrossRef Ghanbary Sartang A, Ashnagar M, Habibi E, Sadeghi S (2016) Evaluation of Rating Scale Mental Effort (RSME) effectiveness for mental workload assessment in nurses. J Occup Health Epidemiol 5(4):211–217CrossRef
Zurück zum Zitat Hancock GM, Longo L, Young MS, Hancock PA (2021) Mental workload. In: Handbook of human factors and ergonomics, S 203–226CrossRef Hancock GM, Longo L, Young MS, Hancock PA (2021) Mental workload. In: Handbook of human factors and ergonomics, S 203–226CrossRef
Zurück zum Zitat Hillege RH, Lo JC, Janssen CP, Romeijn N (2020) The mental machine: classifying mental workload state from unobtrusive heart rate-measures using machine learning. In: International Conference on Human-Computer Interaction. Springer, Cham, S 330–349 Hillege RH, Lo JC, Janssen CP, Romeijn N (2020) The mental machine: classifying mental workload state from unobtrusive heart rate-measures using machine learning. In: International Conference on Human-Computer Interaction. Springer, Cham, S 330–349
Zurück zum Zitat Jeschke P, Lafrenz B, Wischniewski S (2016) Vergleich subjektiver und objektiver Beanspruchungsmessung bei dual-2-back-Aufgaben. Z Arb Wiss 70(4):211–219CrossRef Jeschke P, Lafrenz B, Wischniewski S (2016) Vergleich subjektiver und objektiver Beanspruchungsmessung bei dual-2-back-Aufgaben. Z Arb Wiss 70(4):211–219CrossRef
Zurück zum Zitat Kalayci TE, Kalayci EG, Lechner G, Neuhuber N, Spitzer M, Westermeier E, Stocker A (2021) Triangulated investigation of trust in automated driving: Challenges and solution approaches for data integration. J Ind Inf Integr 21:100186 Kalayci TE, Kalayci EG, Lechner G, Neuhuber N, Spitzer M, Westermeier E, Stocker A (2021) Triangulated investigation of trust in automated driving: Challenges and solution approaches for data integration. J Ind Inf Integr 21:100186
Zurück zum Zitat Khan MQ, Lee S (2019) A comprehensive survey of driving monitoring and assistance systems. Sensors 19(11):2574CrossRef Khan MQ, Lee S (2019) A comprehensive survey of driving monitoring and assistance systems. Sensors 19(11):2574CrossRef
Zurück zum Zitat Kyriakidis M, van de Weijer C, van Arem B, Happee R (2015) The deployment of advanced driver assistance systems in Europe (SSRN 2559034)CrossRef Kyriakidis M, van de Weijer C, van Arem B, Happee R (2015) The deployment of advanced driver assistance systems in Europe (SSRN 2559034)CrossRef
Zurück zum Zitat Luong T, Martin N, Raison A, Argelaguet F, Diverrez JM, Lécuyer A (2020) Towards real-time recognition of users mental workload using integrated physiological sensors into a VR HMD. In: 2020 IEEE International Symposium on Mixed and Augmented Reality (ISMAR). IEEE, , S 425–437CrossRef Luong T, Martin N, Raison A, Argelaguet F, Diverrez JM, Lécuyer A (2020) Towards real-time recognition of users mental workload using integrated physiological sensors into a VR HMD. In: 2020 IEEE International Symposium on Mixed and Augmented Reality (ISMAR). IEEE, , S 425–437CrossRef
Zurück zum Zitat Manzey D (2012) Systemgestaltung und Automatisierung. In: Badke-Schaub P, Hofinger G, Lauche K (Hrsg) Human Factors. Springer, Berlin, Heidelberg Manzey D (2012) Systemgestaltung und Automatisierung. In: Badke-Schaub P, Hofinger G, Lauche K (Hrsg) Human Factors. Springer, Berlin, Heidelberg
Zurück zum Zitat Matthews G, Reinerman-Jones LE, Barber DJ, Abich IVJ (2015) The psychometrics of mental workload: multiple measures are sensitive but divergent. Hum Factors 57(1):125–143CrossRef Matthews G, Reinerman-Jones LE, Barber DJ, Abich IVJ (2015) The psychometrics of mental workload: multiple measures are sensitive but divergent. Hum Factors 57(1):125–143CrossRef
Zurück zum Zitat Moacdieh NM, Devlin SP, Jundi H, Riggs SL (2020) Effects of workload and workload transitions on attention allocation in a dual-task environment: Evidence from eye tracking metrics. J Cogn Eng Decis Mak 14(2):132–151CrossRef Moacdieh NM, Devlin SP, Jundi H, Riggs SL (2020) Effects of workload and workload transitions on attention allocation in a dual-task environment: Evidence from eye tracking metrics. J Cogn Eng Decis Mak 14(2):132–151CrossRef
Zurück zum Zitat Morales-Alvarez W, Sipele O, Léberon R, Tadjine HH, Olaverri-Monreal C (2020) Automated driving: a literature review of the take over request in conditional automation. Electronics 9(12):2087CrossRef Morales-Alvarez W, Sipele O, Léberon R, Tadjine HH, Olaverri-Monreal C (2020) Automated driving: a literature review of the take over request in conditional automation. Electronics 9(12):2087CrossRef
Zurück zum Zitat Morrison JG, Kobus DA, Brown CM (2006) DARPA improving warfighter. Information intake under stress. Augmented Cognition, San Diego Morrison JG, Kobus DA, Brown CM (2006) DARPA improving warfighter. Information intake under stress. Augmented Cognition, San Diego
Zurück zum Zitat Oberfeld D, Franke T (2013) Evaluating the robustness of repeated measures analyses: the case of small sample sizes and nonnormal data. Behav Res Methods 45(3):792–812CrossRef Oberfeld D, Franke T (2013) Evaluating the robustness of repeated measures analyses: the case of small sample sizes and nonnormal data. Behav Res Methods 45(3):792–812CrossRef
Zurück zum Zitat Planke LJ, Gardi A, Sabatini R, Kistan T, Ezer N (2021) Online multimodal inference of mental workload for cognitive human machine systems. Computers 10(6):81CrossRef Planke LJ, Gardi A, Sabatini R, Kistan T, Ezer N (2021) Online multimodal inference of mental workload for cognitive human machine systems. Computers 10(6):81CrossRef
Zurück zum Zitat Poppelreuter S, Mierke K (2018) Psychische Belastungen in der Arbeitswelt 4.0. Entstehung – Vorbeugung – Maßnahmen. ESV, Berlin Poppelreuter S, Mierke K (2018) Psychische Belastungen in der Arbeitswelt 4.0. Entstehung – Vorbeugung – Maßnahmen. ESV, Berlin
Zurück zum Zitat Pretto P, Mörtl P, Neuhuber N (2020) Fluid interface concept for automated driving. In: International Conference on Human-Computer Interaction. Springer, Cham, S 114–130 Pretto P, Mörtl P, Neuhuber N (2020) Fluid interface concept for automated driving. In: International Conference on Human-Computer Interaction. Springer, Cham, S 114–130
Zurück zum Zitat Ramakrishnan P, Balasingam B, Biondi F (2021) Cognitive load estimation for adaptive human–machine system automation. In: Learning control. Elsevier, , S 35–58CrossRef Ramakrishnan P, Balasingam B, Biondi F (2021) Cognitive load estimation for adaptive human–machine system automation. In: Learning control. Elsevier, , S 35–58CrossRef
Zurück zum Zitat Rohmert W (1983) Belastungs-Beanspruchungs-Konzept. In: Praktische Arbeitsphysiologie. Thieme, Stuttgart, S 9–13 Rohmert W (1983) Belastungs-Beanspruchungs-Konzept. In: Praktische Arbeitsphysiologie. Thieme, Stuttgart, S 9–13
Zurück zum Zitat Rouse WB (1988) Adaptive aiding for human/computer control. Hum Factors 30(4):431–443CrossRef Rouse WB (1988) Adaptive aiding for human/computer control. Hum Factors 30(4):431–443CrossRef
Zurück zum Zitat Schaff A (2019) Arbeit 4.0: Risiken für die psychische Gesundheit. In: Arbeitswelten der Zukunft. Springer Gabler, Wiesbaden, S 303–321CrossRef Schaff A (2019) Arbeit 4.0: Risiken für die psychische Gesundheit. In: Arbeitswelten der Zukunft. Springer Gabler, Wiesbaden, S 303–321CrossRef
Zurück zum Zitat Scherer S, Hofmann H, Lampmann M, Pfeil M, Rhinow S, Schwenker F, Palm G (2008) Emotion recognition from speech: stress experiment. In: LREC Scherer S, Hofmann H, Lampmann M, Pfeil M, Rhinow S, Schwenker F, Palm G (2008) Emotion recognition from speech: stress experiment. In: LREC
Zurück zum Zitat Schlick C, Bruder R, Luczak H (2018) Arbeitswissenschaft. Springer, HeidelbergCrossRef Schlick C, Bruder R, Luczak H (2018) Arbeitswissenschaft. Springer, HeidelbergCrossRef
Zurück zum Zitat Schminder E, Ziegler M, Danay E, Beyer L, Bühner M (2010) Is it really robust? Reinvestigating the robustness of ANOVA against violations of the normal distribution. Eur Res J Methods Behav Soc Sci 6(4):147–151 Schminder E, Ziegler M, Danay E, Beyer L, Bühner M (2010) Is it really robust? Reinvestigating the robustness of ANOVA against violations of the normal distribution. Eur Res J Methods Behav Soc Sci 6(4):147–151
Zurück zum Zitat Schneider M (2019) Blickbasierte Beanspruchungsmessung: Entwicklung und Evaluation eines Kalibrierungssystems zur individuellen Bewertung der mentalen Beanspruchung in der Mensch-Technik-Interaktion Bd. 3. KIT Scientific Publishing, Schneider M (2019) Blickbasierte Beanspruchungsmessung: Entwicklung und Evaluation eines Kalibrierungssystems zur individuellen Bewertung der mentalen Beanspruchung in der Mensch-Technik-Interaktion Bd. 3. KIT Scientific Publishing,
Zurück zum Zitat Schwarz JC (2019) Multifaktorielle Echtzeitdiagnose des Nutzerzustands in adaptiver Mensch-Maschine-Interaktion. Technische Universität Dortmund, Dortmund Schwarz JC (2019) Multifaktorielle Echtzeitdiagnose des Nutzerzustands in adaptiver Mensch-Maschine-Interaktion. Technische Universität Dortmund, Dortmund
Zurück zum Zitat Sharma N, Gedeon T (2012) Objective measures, sensors and computational techniques for stress recognition and classification: a survey. Comput Methods Programs Biomed 108(3):1287–1301CrossRef Sharma N, Gedeon T (2012) Objective measures, sensors and computational techniques for stress recognition and classification: a survey. Comput Methods Programs Biomed 108(3):1287–1301CrossRef
Zurück zum Zitat Solís-Marcos I, Kircher K (2019) Event-related potentials as indices of mental workload while using an in-vehicle information system. Cogn Technol Work 21(1):55–67CrossRef Solís-Marcos I, Kircher K (2019) Event-related potentials as indices of mental workload while using an in-vehicle information system. Cogn Technol Work 21(1):55–67CrossRef
Zurück zum Zitat Städtler T (1998) Lexikon der Psychologie. Kröner, Stuttgart Städtler T (1998) Lexikon der Psychologie. Kröner, Stuttgart
Zurück zum Zitat Stanney KM, Schmorrow DD, Johnston M, Fuchs S, Jones D, Hale KS, Young P et al (2009) Augmented cognition: an overview. Rev Hum Factors Ergon 5(1):195–224CrossRef Stanney KM, Schmorrow DD, Johnston M, Fuchs S, Jones D, Hale KS, Young P et al (2009) Augmented cognition: an overview. Rev Hum Factors Ergon 5(1):195–224CrossRef
Zurück zum Zitat Stiger TR, Kosinski AS, Barnhart HX, Kleinbaum DG (1998) ANOVA for repeated ordinal data with small sample size? A comparison of ANOVA, MANOVA, WLS and GEE methods by simulation. Commun Stat Comput 27(2):357–375MATHCrossRef Stiger TR, Kosinski AS, Barnhart HX, Kleinbaum DG (1998) ANOVA for repeated ordinal data with small sample size? A comparison of ANOVA, MANOVA, WLS and GEE methods by simulation. Commun Stat Comput 27(2):357–375MATHCrossRef
Zurück zum Zitat Stuiver A, Mulder LJM, Brookhuis KA, de Waard D, Dijksterhuis C (2010) Adaptive task support based on dynamic human state estimation. 2010 Fourth IEEE International Conference on Self-Adaptive and Self-Organizing Systems Workshop. IEEE, , S 153–158 Stuiver A, Mulder LJM, Brookhuis KA, de Waard D, Dijksterhuis C (2010) Adaptive task support based on dynamic human state estimation. 2010 Fourth IEEE International Conference on Self-Adaptive and Self-Organizing Systems Workshop. IEEE, , S 153–158
Zurück zum Zitat Ulahannan A, Jennings P, Oliveira L, Birrell S (2020) Designing an adaptive interface: using eye tracking to classify how information usage changes over time in partially automated vehicles. IEEE Access 8:16865–16875CrossRef Ulahannan A, Jennings P, Oliveira L, Birrell S (2020) Designing an adaptive interface: using eye tracking to classify how information usage changes over time in partially automated vehicles. IEEE Access 8:16865–16875CrossRef
Zurück zum Zitat Welch BL (1947) The generalization ofstudent’s’ problem when several different population variances are involved. Biometrika 34(1/2):28–35MathSciNetMATHCrossRef Welch BL (1947) The generalization ofstudent’s’ problem when several different population variances are involved. Biometrika 34(1/2):28–35MathSciNetMATHCrossRef
Zurück zum Zitat Wickens CD (2002) Multiple resources and performance prediction. Theor Issues Ergon Sci 3(2):159–177CrossRef Wickens CD (2002) Multiple resources and performance prediction. Theor Issues Ergon Sci 3(2):159–177CrossRef
Zurück zum Zitat Wickens CD (2008) Multiple resources and mental workload. Hum Factors 50(3):449–455CrossRef Wickens CD (2008) Multiple resources and mental workload. Hum Factors 50(3):449–455CrossRef
Zurück zum Zitat Wickens CD, Boles D, Tsang P, Carswell M (1984) The limits of multiple resource theory in display formatting: effects of task integration. ILLINOIS UNIV AT URBANA-CHAMPAIGN, Wickens CD, Boles D, Tsang P, Carswell M (1984) The limits of multiple resource theory in display formatting: effects of task integration. ILLINOIS UNIV AT URBANA-CHAMPAIGN,
Zurück zum Zitat Wittels P, Johannes B, Enne R, Kirsch K, Gunga HC (2002) Voice monitoring to measure emotional load during short-term stress. Eur J Appl Physiol 87(3):278–282CrossRef Wittels P, Johannes B, Enne R, Kirsch K, Gunga HC (2002) Voice monitoring to measure emotional load during short-term stress. Eur J Appl Physiol 87(3):278–282CrossRef
Zurück zum Zitat Zijlstra FRH (1993) Efficiency in work behavior: a design approach for modern tools. Dissertation. Delft University Press, Delft Zijlstra FRH (1993) Efficiency in work behavior: a design approach for modern tools. Dissertation. Delft University Press, Delft
Zurück zum Zitat Zokaei M, Jafari MJ, Khosrowabadi R, Nahvi A, Khodakarim S, Pouyakian M (2020) Tracing the physiological response and behavioral performance of drivers at different levels of mental workload using driving simulators. J Safety Res 72:213–223CrossRef Zokaei M, Jafari MJ, Khosrowabadi R, Nahvi A, Khodakarim S, Pouyakian M (2020) Tracing the physiological response and behavioral performance of drivers at different levels of mental workload using driving simulators. J Safety Res 72:213–223CrossRef
Metadaten
Titel
Entwicklung und Validierung einer computerbasierten Aufgabe zur Induktion eines psychischen Beanspruchungsspektrums
verfasst von
Yannick Andreas Funk, M. Sc.
Henrike Haase, M. Sc.
Julian Remmers, M. Sc.
Noé Nussli, B. Sc.
Prof. Dr.-Ing. Dipl.-Psych. Barbara Deml
Publikationsdatum
10.03.2022
Verlag
Springer Berlin Heidelberg
Erschienen in
Zeitschrift für Arbeitswissenschaft / Ausgabe 2/2022
Print ISSN: 0340-2444
Elektronische ISSN: 2366-4681
DOI
https://doi.org/10.1007/s41449-022-00304-y

Weitere Artikel der Ausgabe 2/2022

Zeitschrift für Arbeitswissenschaft 2/2022 Zur Ausgabe

Mitteilungen

Personalien

Premium Partner