Vitalik Buterin sprach über die Bedrohung durch KI
Die Menschheit leiste nicht genug Arbeit bei der Angleichung globaler Werte, um sicherzustellen, dass superintelligente künstliche Intelligenz zum Wohle aller Menschen arbeite, sagte Ethereum-Mitbegründer Vitalik Buterin.
Er kommentierte einen Beitrag eines 3D-Künstlers mit dem Spitznamen Utah Teapot.
„Wie kann es überhaupt ein Konzept der KI-Ausrichtung geben? Ich frage immer: ‚Ausrichtung womit?‘ Niemand antwortet jemals etwas anderes als ‚mit menschlichen Werten‘. Aber es gibt keine ganzheitlichen, konsistenten menschlichen Werte. Ich verstehe es immer noch nicht. Was erforschen wir überhaupt? Es ist absurd, dass sich daraus eine wachsende Industrie entwickelt. Eine Farce“, schrieb er.
Buterin betonte, dass es auf der Welt viele Dinge gebe, die ethischen Prinzipien widersprächen. Als Beispiel nannte er die Tötung oder Inhaftierung unschuldiger Menschen.
„[…] Unsere Koordination ist noch nicht gut genug, um sicherzustellen, dass eine einzelne superintelligente KI selbst das vermeiden kann“, fügte der Entwickler hinzu.
Utah Teapot stellte fest, dass die Entwicklung konsensbasierter künstlicher Intelligenz dazu führt, den öffentlichen Zugang zur Entwicklung einzuschränken. Gleichzeitig verkaufen große Unternehmen Versionen ihrer KI-Systeme, die zu negativen Phänomenen beitragen und als Kriegsinstrumente fungieren.
„Ich bin zutiefst besorgt darüber, dass durch die Zentralisierung des Zugangs zur KI-Technologie Dinge als Sicherheitsprobleme dargestellt werden können, die es nicht sind, wie etwa Diskussionen über die ‚Psychose‘ von LLM, wodurch einzigartige oder marginalisierte Kulturen und ihre Werte gefährdet werden“, bemerkte der Benutzer.
Buterin teilt viele dieser Bedenken.
„Ich denke, die größten Risiken gehen vom Militär und anderen Einheiten aus, die über viel Macht verfügen und sich so von den Sicherheitsregeln ausnehmen können, die für alle anderen standardmäßig gelten“, fügte der Ethereum-Mitbegründer hinzu.
Als Beispiel nannte Utah Teapot das KI-Startup Anthropic. Es entwickelt alternative Versionen „ziviler“ Modelle und stellt sie Regierungen zur Verfügung. Sie können für militärische oder nachrichtendienstliche Zwecke eingesetzt werden.
Buterin betonte, dass die Wahrscheinlichkeit eines katastrophalen Szenarios für die Menschheit durch KI steige, wenn es nur einen superintelligenten Agenten – eine künstliche Intelligenz – mit eigenem Willen und der Fähigkeit gebe, als Subjekt zu handeln.
In einem pluralistischen Umfeld kann kein System die totale Kontrolle haben. Doch um dieses Umfeld zu schaffen, bedarf es mehr als nur Marktmechanismen. Es erfordert gezielte Anstrengungen, darunter Gesetzesänderungen und Anreize, die großen Konzernen nicht gefallen werden.
Erinnern Sie sich daran, dass der indische IT-Minister Rajiv Chandrasekhar im Jahr 2022 die Entwicklung globaler Standards forderte, um die Sicherheit der KI für den Menschen zu gewährleisten.
Источник: cryptocurrency.tech