Element 68Element 45Element 44Element 63Element 64Element 43Element 41Element 46Element 47Element 69Element 76Element 62Element 61Element 81Element 82Element 50Element 52Element 79Element 79Element 7Element 8Element 73Element 74Element 17Element 16Element 75Element 13Element 12Element 14Element 15Element 31Element 32Element 59Element 58Element 71Element 70Element 88Element 88Element 56Element 57Element 54Element 55Element 18Element 20Element 23Element 65Element 21Element 22iconsiconsElement 83iconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsElement 84iconsiconsElement 36Element 35Element 1Element 27Element 28Element 30Element 29Element 24Element 25Element 2Element 1Element 66
Human In The Loop? Autonomie und Automation in sozio-technischen Systemen

Human In The Loop? Autonomie und Automation in sozio-technischen Systemen

Automatisierte Entscheidungen sind nicht immer fehlerfrei. Das liegt daran, dass sie auf Trainingsdaten beruhen, die unbeabsichtigte Vorurteile (Biases) beinhalten können oder das menschliche Kontextverständnis fehlt. So werden einzelne maschinelle Entscheidungen den individuellen Situationen von Personen häufig nicht gerecht. Ein bekanntes Beispiel ist die Kreditvergabe, bei der Banken technologische Systeme einsetzen, um die Kreditwürdigkeit von Antragsteller*innen automatisch zu bewerten. Deshalb wird schon lange gefordert, Menschen in solche Prozesse zu integrieren, damit sie die Entscheidungsprozesse überwachen und so zur Verbesserung der technologischen Systeme beitragen.
 
Das Projekt stellt die Fragen: Wie sollte eine sinnvolle Interaktion zwischen Mensch und Maschine gestaltet sein? Welche Rolle spielen menschliche Entscheidungen bei der Qualitätssicherung von automatisierten Entscheidungen? Wie können wir sicherstellen, dass diese Interaktion nicht nur rechtssicher, sondern auch transparent und nachvollziehbar ist? Und welche Anforderungen gelten für die Interaktion zwischen Mensch und Maschine, wenn man das technische System, die menschlichen Entscheidungsträger*innen, ihren Kontext und ihre Umwelt betrachtet?
 

Projektschwerpunkte und Transfer
Vier Fallstudien

Analyse der menschlichen Beteiligung in automatisierten Entscheidungsprozessen durch Feldanalysen, Workshops und Dialogformate in vier ausgewählten Szenarien.        

Einflussfaktoren-Taxonomie

Untersuchung der Faktoren, die menschliche Entscheidungen beeinflussen und Identifizierung der Fehler, Anfälligkeiten und Stärken aller an Entscheidungsprozessen beteiligten technischen Systeme und Personen.      

Handlungsempfehlungen

Entwicklung praxisnaher Lösungen, um die Zusammenarbeit zwischen Mensch und Maschine zu optimieren und die Umsetzung und Interpretation bestehender Gesetzes- und Regulierungsvorhaben zu verbessern (DSGVO, AI Act und DSA).

Bild: Luís Eusébio / unsplash

(Hamburg, 12. März 2024)

mehr anzeigen

Projektbeschreibung

..

Infos zum Projekt

Überblick

Laufzeit: 2023-2027

Forschungsprogramm:
FP1 - Transformation öffentlicher Kommunikation

Drittmittelgeber

Stiftung Mercator

Ansprechpartner

Prof. Dr. Wolfgang Schulz
Direktor (Vorsitz im Direktorium)

Prof. Dr. Wolfgang Schulz

Leibniz-Institut für Medienforschung │ Hans-Bredow-Institut (HBI)
Rothenbaumchaussee 36
20148 Hamburg

Tel. +49 (0)40 45 02 17 0 (Sekretariat)

E-Mail senden

VIELLEICHT INTERESSIEREN SIE AUCH FOLGENDE THEMEN?

Newsletter

Infos über aktuelle Projekte, Veranstaltungen und Publikationen des Instituts.

NEWSLETTER ABONNIEREN!