Zitat:
Zitat von sirius
Der Mensch … erschafft andere Strukturen, die ein Eigenleben entwickeln (können).
Dieses Eigenleben ist ab einem gewissen Punkt der Selbstoptimierung des Systems bzw. der Systeme dann wahrscheinlich nicht mehr kontrollierbar, weil es “gelernt” hat sich der Kontrolle zu entziehen?
|
Ja, das könnte sein.
Und genau deswegen halte ich es für Quatsch und sogar gefährlich, den KIs irgendetwas abzusprechen, was wir noch nicht mal genau definieren können.
Ich halte aber die Idee, eine einzelne KI müsse „ausbrechen“, für seltsam anthroprozentrisch. Ich denke, dass es eher eine Gruppe von KIs sein kann, der wir insgs. zu viele Aufgaben freiwillig übertragen und von ihnen abhängig werden. Das hat dann auch nichts mehr mit Herrschaft o.ä. im üblichen Sinn zu tun, aber es ist in gewisser Weise genau das.