Entscheiden über, durch und zusammen mit algorithmischen Entscheidungssystemen


  • Laufzeit: -
    Zuwendungsgeber: Volkswagen Stiftung

    Prof. Dr. Katharina A. Zweig
    Rheinland-Pfälzische Technische Universität Kaiserslautern-Landau

    Um den sozialen Einfluss von algorithmischen Entscheidungssystemen (ADM Systeme) auf die zukünftige Gesellschaft besser zu verstehen, untersucht das Projekt "Entscheiden über, durch und zusammen mit algorithmischen Entscheidungssystemen" ADM-Systeme in der Strafjustiz kritisch aus mehreren und sich überschneidenden disziplinären Perspektiven. Der Fokus unserer Analyse liegt darauf, wie Menschen über die Konstruktion und Implementierung eines ADM-Systems in einem bestimmten sozialen Kontext entscheiden; wie ADM-Systeme automatisierte Entscheidungen treffen, d.h. wie Menschen entscheiden, indem sie ein ADM-System entscheiden lassen; und wie Menschen zusammen mit einem ADM-System Entscheidungen treffen. Ziel der Analyse ist es, die Kontextabhängigkeit der Entscheidungsfindung zu verdeutlichen, die derzeit bei der Entwicklung und Implementierung von ADM-Systemen nur unzureichend berücksichtigt wird.  Vor dem Einsatz von ADM-Systemen wurde diese Kontextabhängigkeit durch die Ermessensausübung von Menschen (z. B. Richtern, Staatsanwälten usw.) berücksichtigt, die sich auf ihre Kenntnisse und ihr Verständnis des Strafrechtssystems stützten, die sie in der Regel durch jahrelange Ausbildung und Erfahrung erworben haben.  Diese Analyse wird es uns ermöglichen, allgemeine Situationen zu identifizieren, in denen der Kontext der Entscheidung so wichtig ist, dass eine Maschine (beim derzeitigen Stand der Technik) keine automatisierten Entscheidungen ohne aktive menschliche Aufsicht treffen sollte. Daher entwickeln wir allgemeine Richtlinien, die dabei helfen können, die Bedingungen zu bestimmen, unter denen Menschen Entscheidungen treffen sollten, wann und wie sie von Maschinen unterstützt werden könnten und wann Maschinen allein am besten geeignet sind, Entscheidungen zu treffen.  Diese Erkenntnisse bilden die Grundlage für die Ermittlung von Grundsätzen, die Aufschluss darüber geben, wie die Entscheidungsbefugnisse zwischen Menschen und Maschinen am besten verteilt werden können. Das Algorithm Accountability Lab konzentriert sich auf die computerwissenschaftliche Perspektive des Projekts.



    https://fatal4justice.cs.uni-kl.de/

KI-Schwerpunktfelder des Forschungsprojekts


  • Grundlagenforschung

    • Technologieanalyse: Soziale und Rechtliche Rahmenbedingungen, Ethische Aspekte, Aspekte der Sozialen Gerechtigkeit, Rechtliche Aspekte: Regulierung, Transparenz, Haftung, Urheberrecht

  • Anwendungsbezogene Forschung

    • Intelligente Assistenzsysteme / Virtuelle Assistenten: Vorausschauende Analyse
    • Informationsgewinnung (Wissens-, Datenmanagement und -Analyse): Entscheidungsunterstützung
    • Technologieanalyse: Diskriminierungsfreiheit, Nachvollziehbarkeit / Erklärbarkeit, Technologiefolgenabschätzung