OUTER ALIGNMENT
Das Outer Alignment Problem fragt in einem KI-Zusammenhang, worauf ein KI-Model ausgerichtet wird, was also das Ziel der KI sein soll. Es geht also um die Frage, ob die KI auf das richtige Ziel trainiert wird.
Du hast eine Frage?
Das Outer Alignment Problem fragt in einem KI-Zusammenhang, worauf ein KI-Model ausgerichtet wird, was also das Ziel der KI sein soll. Es geht also um die Frage, ob die KI auf das richtige Ziel trainiert wird.