Saltar la navegación
Wie Sie Maschinen zähmen
Artikel

Wie Sie Maschinen zähmen

Maschinelles Lernen und Ethik



Bewertung der Redaktion

8

Qualitäten

  • Umsetzbar
  • Überblick
  • Praktische Beispiele

Rezension

Selbstlernende Systeme versprechen Effizienz, fundierte Entscheidungen und Lösungen für komplexe Probleme. Doch Manager sollten nicht unterschätzen, wie fehlerbehaftet KI-Anwendungen sind. Ethik ist ihnen ohnehin fremd. Den Maschinen das Lernen zu verbieten ist jedoch genauso problematisch. Harvard- und Insead-Experten zeigen in diesem Artikel, welche Risiken der Einsatz selbstlernender Systeme birgt und wie man sie unter Kontrolle hält. Der Mensch wird zur Aufsichtsbehörde, und für die gilt: Genau hinsehen!

Take-aways

  • Selbstlernende Systeme sind in einem komplexen Umfeld zwangsläufig fehlerbehaftet.
  • Algorithmen das eigenständige Lernen zu verbieten, ist keine Lösung, denn auch so entstehen Fehler und ethische Probleme.
  • Wer selbstlernende Systeme einsetzt, muss frühzeitig Richtlinien festsetzen, diese laufend überprüfen und notfalls die Reißleine ziehen.

Über die Autoren

Boris Babic ist Assistant Professor an der Insead Business School. I. Glenn Cohen ist Professor am Petrie-Flom Center der Harvard Law School. Theodoros Evgeniou ist Professor an der Insead Business School. Sara Gerke ist Research Fellow am Petrie-Flom Center.


Kommentar abgeben oder Comenzar discusión