Sie befinden sich im Archiv von ZU|Daily.

ZU|Daily wurde in die Hauptseite in den Newsroom unter https://www.zu.de/newsroom/daily/ integriert. Die neuesten Artikel seit August 2024 werden dort veröffentlicht. Hier finden Sie das vollständige Archiv aller älteren Artikel.

Der Algorithmus und seine Richter
NAVIGATION

Forschungsprojekt zur KI

Der Algorithmus und seine Richter

Interview: Sebastian Paul | Redaktion
05.02.2019
Natürlich ist die Künstliche Intelligenz eine Riesenchance für die Menschheit, daran besteht kein Zweifel. Man muss allerdings die Rahmenbedingungen für den Einsatz in sensiblen Bereichen erarbeiten und abstecken.

Prof. Dr. Anja Achtziger
Lehrstuhl für Sozial- und Wirtschaftspsychologie
 
  •  
    Zur Person
    Prof. Dr. Anja Achtziger

    2012 wurde Anja Achtziger auf den Lehrstuhl für Sozial- und Wirtschaftspsychologie der Zeppelin Universität berufen. Sie verstärkt dabei neben der Forschung auch die Studienprogramme im Bereich der Kultur und Kommunikations- sowie Wirtschaftswissenschaften an der ZU. Zuvor vertrat sie an der Universität Konstanz mehrfach die Professur für Sozialpsychologie und Motivation. Im Jahr 2008 habilitierte sie sich zum Thema „Erfolgreiches Handeln aus einer sozialkognitiven Perspektive: Rubikonmodell, Vorsatztheorie und mentales Kontrastieren“.  

  •  
    Mehr ZU|Daily
    Intelligenz essen Seele auf
    Was passiert, wenn Maschinen immer mehr Macht übernehmen? Es droht das Ende der Menschheit. Vielleicht. ZU-Professor Jan Söffner hat sich über diese heißen Spekulationen Gedanken gemacht.
    Außer Kontrolle?
    Regelmäßig warnt Tesla-Chef Elon Musk: Künstliche Intelligenz sei gefährlicher als Atomwaffen. Berechtigte Panik oder Verweigerung vor dem Fortschritt – fragt sich auch ZU-Gastprofessor Hans Ulrich Gumbrecht.
    Revolution der Pausenclowns
    Themen wie der künstlichen Intelligenz gehört die Zukunft. Braucht es da noch Geisteswissenschaftler? Definitiv, antwortet der ZU-Student Said Werner – denn auch dem Nachdenken gehört die vierte industrielle Revolution.
  •  
     
    Hä...?
    Haben Sie Fragen zum Beitrag? Haben Sie Anregungen, die Berücksichtigung finden sollten?
    Hier haben Sie die Möglichkeit, sich an die Redaktion und die Forschenden im Beitrag zu wenden.
  •  
    Teilen

Was kann man sich unter „algorithmic decision making“, also der algorithmischen Entscheidungsfindung, genau vorstellen?

Prof. Dr. Anja Achtziger: Darunter versteht man, dass spezielle Computerprogramme an großen Datensätzen, wie Kunden- oder Patientendaten, lernen sollen, wie Menschen – etwa Konsumenten oder Mediziner – Entscheidungen treffen. Solche automatischen Entscheidungssysteme können dann in Zukunft beratend zum menschlichen Entscheider Entscheidungshilfen geben oder – je nachdem, wie gut und zuverlässig sie auf Dauer selbst Entscheidungen treffen (was noch überprüft werden muss) – menschliche Entscheider auch ersetzen, wobei dies eine theoretische Überlegung ist, denn das kommt ganz auf den jeweiligen Bereich sowie Komplexitätsgrad der jeweiligen Entscheidung an. Aber weil das nun in bestimmten Bereichen eine heikle Angelegenheit ist, befassen sich gerade Juristen, Ethiker, Informatiker und natürlich auch Entscheidungsforscher aus anderen Disziplinen wie beispielsweise der Psychologie mit dem Thema, um etwa Rahmenbedingungen für den Einsatz solcher Systeme abzuklären und Richtlinien für ihren Einsatz in brisanten Bereichen, wie Medizin oder Recht, abzustecken.

Mit rund 1,5 Millionen Euro fördert die VolkswagenStiftung ein Forschungsprojekt der Technischen Universität Kaiserslautern, des Hans-Bredow-Instituts für Medienforschung Hamburg, der Zeppelin Universität und der University of Birmingham. Es widmet sich den notorisch unterbesetzten Strafjustizsystemen, insbesondere denen der USA und Großbritanniens, in denen Systeme auf Basis von „algorithmic decision making“ immer beliebter werden. Die beteiligten Wissenschaftler – unter anderem aus Informatik, Rechts-  und Sozialwissenschaften – wollen untersuchen, welche Limitierungen diese Art der Entscheidungsfindungssysteme haben. Sie gehen beispielsweise der Frage nach, wie Menschen über Menschen entscheiden und wie Maschinen über Menschen entscheiden, verglichen damit, wie Menschen zusammen mit Maschinen über Menschen entscheiden. Zudem wollen sie die Grenzen ausloten, in denen Maschinen überhaupt Entscheidungen über Menschen treffen sollten.
Mit rund 1,5 Millionen Euro fördert die VolkswagenStiftung ein Forschungsprojekt der Technischen Universität Kaiserslautern, des Hans-Bredow-Instituts für Medienforschung Hamburg, der Zeppelin Universität und der University of Birmingham. Es widmet sich den notorisch unterbesetzten Strafjustizsystemen, insbesondere denen der USA und Großbritanniens, in denen Systeme auf Basis von „algorithmic decision making“ immer beliebter werden. Die beteiligten Wissenschaftler – unter anderem aus Informatik, Rechts- und Sozialwissenschaften – wollen untersuchen, welche Limitierungen diese Art der Entscheidungsfindungssysteme haben. Sie gehen beispielsweise der Frage nach, wie Menschen über Menschen entscheiden und wie Maschinen über Menschen entscheiden, verglichen damit, wie Menschen zusammen mit Maschinen über Menschen entscheiden. Zudem wollen sie die Grenzen ausloten, in denen Maschinen überhaupt Entscheidungen über Menschen treffen sollten.

In welchen Staaten kommen die technischen Justizhelfer bereits zum Einsatz und welche juristischen Aufgaben übernehmen sie?

Achtziger: Besonders die Vereinigten Staaten und das Vereinigte Königreich arbeiten intensiv an der Weiterentwicklung von technischen Justizhelfern. Inwiefern deren Einsatz bereits sinnvoll ist, soll neben anderen Fragestellungen in dem kürzlich gestarteten interdisziplinären Forschungsprojekt in Zusammenarbeit mit Kolleginnen und Kollegen des Algorithm Accountability Labs der TU Kaiserslautern, der University of Birmingham (Professur für Ethics, Law, and Informatics) und dem Hans-Bredow-Institut für Medienforschung an der Universität Hamburg überprüft werden. Darüber hinaus ist ein weiterer Kollege der TU Kaiserslautern beteiligt, der sich Gedanken über die politischen Konsequenzen macht. 


Wo wir schon mal beim Projekt „Deciding about, by, and together with algorithmic decision making systems“ sind: Was genau wird untersucht und wie lautet das Ziel?

Achtziger: Zunächst geht es darum, Kolleginnen und Kollegen anderer Disziplinen zu erklären, wie Menschen generell mit Informationen umgehen, bevor sie Entscheidungen treffen. Ziel ist es also, Softwareentwickler, Gesetzgeber und andere involvierte Gruppen für den adäquaten Umgang mit Algorithmen zu sensibilisieren. An welchen Datensätzen lernen die Programme? Wie kamen diese Datensätze zustande? Wo sind in den Daten bereits menschliche Fehler und Biases inkludiert, die ein Programm dann möglicherweise ebenfalls lernt? Darüber hinaus wollen wir untersuchen, welche Limitierungen die algorithmischen Entscheidungsfindungssysteme haben. Wir gehen beispielsweise der Frage nach, wie Menschen über Menschen entscheiden und wie Maschinen über Menschen entscheiden, verglichen damit, wie Menschen zusammen mit Maschinen über Menschen entscheiden. Zudem wollen wir die Grenzen ausloten, in denen Maschinen überhaupt Entscheidungen über Menschen treffen sollten, und entsprechende Richtlinien entwickeln.

Auf welche Art und Weise trägt Ihr Lehrstuhl zu den Forschungsergebnissen bei?

Achtziger: Wir möchten vor allem aufklären: über menschliche Entscheidungen, deren zugrundeliegenden Prozesse sowie die Sammlung von Daten für Entscheidungen. Wie kommt es eigentlich in bestimmten Bereichen zu welchen kognitiven Informationsverarbeitungsprozessen, die letztlich menschliche Entscheidungen steuern? Wie bilden sich diese in den Datensätzen ab, die hernach für das Machine Learning benutzt werden und dort zur Abbildung menschlicher Entscheidungsbiases führen (was man ja eben eigentlich mit dem Einsatz von Algorithmen verhindern will)? Durch welche Ziele und Motive sind menschliche Entscheider beeinflusst? Können Algorithmen das bereits genauso abbilden oder wo fehlt es noch und warum?


Am Ende eine persönliche Frage: Wie betrachten Sie die Zukunft der Künstliche Intelligenz? Als Chance oder Risiko für die Menschheit?

Achtziger: Natürlich ist die Künstliche Intelligenz eine Riesenchance für die Menschheit, daran besteht kein Zweifel. Man muss allerdings die Rahmenbedingungen für den Einsatz in sensiblen Bereichen erarbeiten und abstecken – und genau das machen wir ja jetzt in einem interdisziplinären Forschungsverbund, der mit rund 1.56 Millionen Euro aus den Mitteln der Förderinitiative „Künstliche Intelligenz – Ihre Auswirkungen auf die Gesellschaft von morgen“ von der Volkswagen-Stiftung gefördert wird.

Titelbild: 

| Simon Zhu / Unsplash.com (CC0 Public Domain) | Link


Bild im Text: 

| Hédi Benyounes / Unsplash.com (CC0 Public Domain) | Link


Redaktionelle Umsetzung: Florian Gehm

nach oben
Zeit, um zu entscheiden

Diese Webseite verwendet externe Medien, wie z.B. Videos und externe Analysewerkzeuge, welche alle dazu genutzt werden können, Daten über Ihr Verhalten zu sammeln. Dabei werden auch Cookies gesetzt. Die Einwilligung zur Nutzung der Cookies & Erweiterungen können Sie jederzeit anpassen bzw. widerrufen.

Eine Erklärung zur Funktionsweise unserer Datenschutzeinstellungen und eine Übersicht zu den verwendeten Analyse-/Marketingwerkzeugen und externen Medien finden Sie in unserer Datenschutzerklärung.