Künstliche Intelligenz übernimmt in immer mehr Lebensbereichen die Kontrolle. Da werden Rufe laut, die KI-Superhirne selbst zu kontrollieren. Doch das ist gar nicht so einfach, wie dieser hellsichtige HBM-Artikel beleuchtet. Schon die Datengrundlagen für das Training der KI sorgen für ein systematisches Diskriminierungspotenzial. Noch schlimmer wird es, wenn die KI lernt und anschließend ihre eigenen Regeln schreibt. Wie eine Regulierung trotzdem möglich ist und wo Unternehmen ansetzen können, erklärt dieser Artikel.
Künstliche Intelligenz hat ein Vertrauensproblem. Regulierung ist darum unerlässlich.
Wenn es um Digitaltechnologien geht, haben Verbraucher vor allem bei einer Sache Bedenken: der Sicherheit. Kreditkarten, Adressen, Nutzerverhalten, alles wird von Unternehmen aufgezeichnet. Viele Kunden fühlen sich unwohl dabei, haben Angst vor Betrug und Identitätsdiebstahl. Der Staat reagiert darauf, doch Regulierungen jeder Art führen auch zu Kritik, weil damit Nachteile für hiesige Unternehmen im Vergleich zu Ländern wie etwa China entstehen. Das Thema gewinnt an Brisanz, weil Unternehmen immer häufiger künstliche Intelligenz einsetzen, um die gewonnenen Daten auszuwerten. Wie aber soll man eine autonom agierende künstliche Intelligenz regulieren? In der EU hat man hierzu das Weißbuch Zur künstlichen Intelligenz herausgegeben und einen Rechtsrahmen zur KI vorgelegt. Die Regulierung von KI wird im Sinne der Verbraucher als unerlässlich angesehen.
Künstliche Intelligenz diskriminiert Menschen systematisch.
KI sieht sich mit einem großen Vorwurf konfrontiert: Sie diskriminiert Menschen. Dem Kreditkartenalgorithmus von Apple wurde vorgeworfen, Frauen...
Kommentar abgeben