Ein Leser schrieb mir einen interessanten Gedankengang, den ich hier mal weitergeben will.

Er meint, "KI" wird ja traininert, um Erwartungen zu erfüllen. Nicht um Intelligenz auszubilden, sondern um Erwartungen zu erfüllen. Bei OpenAI sind das häufig irgendwelche Tests für Menschen, die die "KI" bestehen soll.

Der Leser fragt jetzt: Wenn die Erwartung von OpenAI ist, dass "KI" irgendwann intelligent wird und uns alle auslöscht, dann ist die "KI" kann aber nicht denken vielleicht gar nicht der relevante Punkt an der Stelle.

Wenn die "KI" von Leuten trainiert wird, den Erwartungen zu entsprechen, und deren Erwartung ist, dass die "KI" uns umbringen wird, braucht es vielleicht gar keine "intelligente" "KI", um uns alle umzubringen. Schon die Fake-"KI", zu der die Fähigkeiten der Sprallos bisher reicht, könnte uns alle umbringen, wenn das die Erwartungshaltung war.

Finde ich eine schöne Paradoxie, denn auf der anderen Seite will man ja instinktiv, dass Leute an "KI" arbeiten, die verstanden haben, dass davon eine Gefahr ausgeht.

17.10.2024