Short:

Elon Musks OpenAI hat gemeinsam mit Googles Deepmind-Team einen Algorithmus entwickelt, der falsches oder sogar potenziell gefährliches Verhalten von künstlicher Intelligenz verhindern soll.

OpenAI und Deepmind: Algorithmus soll zu mehr Sicherheit bei künstlicher Intelligenz führen

Der Begriff bestärkendes Lernen kommt aus dem Bereich des maschinellen Lernens und bezeichnet Verfahren, bei denen eine künstliche Intelligenz (KI) selbstständig eine Strategie entwickelt, um ihre vom System festgelegte Belohnung zu maximieren. Dadurch soll das Lernverhalten aus der Natur nachgebildet werden. Der Vorteil: Die KI lernt selbstständig dazu und muss nicht von Menschen trainiert werden.

Künstliche Intelligenz: Minimales menschliches Feedback soll dabei helfen, Fehler zu vermeiden. (Grafik: OpenAI)

Allerdings kann das bestärkende Lernen auch zu Fehlern führen, wenn das Ziel nicht ausreichend klar definiert wurde. Solche Fehler könnten, je nach Einsatzgebiet, in Zukunft dramatische Konsequenzen haben. Jetzt haben Wissenschaftler mit der von Elon Musk, Sam Altman und anderen Tech-Größen ins Leben gerufenen Non-Profit-Organisation OpenAI gemeinsam mit Googles Deepmind-Team eine mögliche Lösung für dieses Problem vorgestellt.

OpenAI und Deepmind wollen KIs durch minimalen menschlichen Aufwand sicherer machen

Vereinfacht ausgedrückt funktioniert die Methode wie folgt: Der Nutzer bekommt jeweils zwei mögliche Lösungsvorschläge von der KI mittgeteilt und entscheidet sich jeweils für den Besseren. In Versuchen soll es ausgereicht haben, der KI in nur einem Prozent der Zeit, in der sie mit ihrer Umgebung interagiert hat, menschliches Feedback zu geben, um das gewünschte Ergebnis zu erreichen. Menschen müssen also nur wenig Zeit aufbringen, um etwaige Fehler beim Verhalten der KI zu verhindern.

Wer sich für die Thematik interessiert, der kann einen Blick auf das Paper mit dem Titel „Deep reinforcement learning from human preferences“ werfen. Um besser verstehen zu können, was das OpenAI-Team und die Google-Wissenschaftler mit möglichen Gefahren meinen, lohnt sich außerdem die Lektüre des 2016 veröffentlichten Papers „Concrete Problems in AI Safety“.

Ebenfalls interessant:

Quelle: http://feedproxy.google.com/~r/aktuell/feeds/rss/~3/LktZGxzE_TI/

Kommentare