Das Machine Intelligence Research Institute (MIRI) forderte in einer Erklärung die Welt auf, die Entwicklung von KI-Systemen einzustellen, die intelligenter als Menschen sind, da es davon ausgeht, dass die potenziellen Risiken zum Untergang der Menschheit führen könnten. Dieser Aufruf wurde von einigen führenden Vertretern der Technologiebranche unterstützt, löste jedoch auch Kontroversen aus. MIRI betonte, dass die derzeitige Geschwindigkeit der KI-Entwicklung zu hoch sei und es für die gesetzgeberische Aufsicht schwierig sei, mitzuhalten. Daher seien proaktivere Maßnahmen wie die obligatorische Installation von „Aus-Schaltern“ erforderlich, um mit potenziell böswilligen Verhaltensweisen der KI umzugehen unvorhersehbare Risiken. Das Institut ist davon überzeugt, dass die Entwicklung fortschrittlicherer KI-Systeme nur fortgesetzt werden kann, wenn sichergestellt ist, dass die KI sicher und kontrollierbar ist.
Die gemeinnützige Forschungsgruppe Machine Intelligence Research Institute (MIRI) hat die Welt dazu aufgerufen, die Grundlagen- oder Spitzenmodellforschung zu stoppen, da sie befürchtet, dass ihre Sicherheitsprobleme das Überleben der Menschheit gefährden könnten. Das Grundmodell ist ein künstliches Intelligenzsystem, das auf mehrere Modi angewendet werden kann. MIRI glaubt, dass das zugrunde liegende Modell intelligenter sein wird als Menschen und das Potenzial hat, „die Menschheit zu zerstören“.

Im Technologiebereich haben einige führende Persönlichkeiten, darunter Elon Musk und Steve Wozniak, ein Moratorium für die Entwicklung grundlegender Modelle gefordert, die leistungsfähiger sind als GPT-4 von OpenAI. MIRI möchte jedoch noch einen Schritt weiter gehen und fordert in einer kürzlich vorgestellten Kommunikationsstrategie einen vollständigen Stopp aller Versuche, Systeme zu entwickeln, die intelligenter als Menschen sind.
Die Gruppe sagte: „Politische Entscheidungsträger gehen Probleme in erster Linie durch Kompromisse an: Sie geben irgendwo nach, um an einem anderen etwas zu gewinnen. Wir befürchten, dass ein Großteil der Gesetzgebung, die zum Schutz des menschlichen Überlebens erforderlich ist, den üblichen politischen Prozess durchlaufen und in einen ineffektiven Kompromiss übergehen wird.“ In der Zwischenzeit tickt die Zeit, dass KI-Labore weiterhin in die Entwicklung und Schulung robusterer Systeme investieren.“
MIRI möchte, dass die Regierung Unternehmen, die zugrunde liegende Modelle entwickeln, dazu zwingt, „Kill-Switches“ zu installieren, die KI-Systeme abschalten können, wenn sie böswillige oder „X-Risk“-Tendenzen entwickeln.
Die gemeinnützige Organisation sagte, sie bleibe der Idee verpflichtet, dass intelligente Systeme intelligenter als Menschen seien, wolle sie aber bauen, „bis wir wissen, wie man diese Art von KI sicher baut“.
MIRI wurde im Jahr 2000 von Eliezer Yudkowsky gegründet, mit Unterstützern wie Peter Thiel und Vitalik Buterin, Mitbegründer der Kryptowährung Ethereum. Das Future of Life Institute ist ebenfalls einer der wichtigsten Mitwirkenden von MIRI.
Bradley Shimmin, Chefanalyst beim KI- und Datenanalyse-Forschungsunternehmen Omdia, sagte, dass es MIRI aufgrund des Mangels an unterstützender Forschung schwerfallen werde, die Gesetzgeber zu überzeugen. „Der Markt hat diese Probleme berücksichtigt und ist zu dem Schluss gekommen, dass der aktuelle und zukünftige Stand der Technik konverterbasierter GenAI-Modelle nicht sehr wenig kann, außer nützliche Darstellungen komplexer Themen zu erstellen“, sagte Shimmin richtig auf die Wissenslücke zwischen diesen Aufbau und Regulierung künstlicher Intelligenz.
Höhepunkte:
- Die gemeinnützige Forschungsgruppe Machine Intelligence Research Institute (MIRI) forderte die Welt auf, die Grundlagen- oder „Spitzenmodellforschung“ zu stoppen, da sie befürchtete, dass ihre Sicherheitsprobleme das Überleben der Menschheit gefährden könnten.
– MIRI möchte, dass die Regierung Unternehmen, die zugrunde liegende Modelle entwickeln, dazu zwingt, „Kill-Switches“ zu installieren, die KI-Systeme abschalten können, wenn sie böswillige oder „X-Risk“-Tendenzen entwickeln.
– Bradley Shimmin, Chefanalyst beim KI- und Datenanalyse-Forschungsunternehmen Omdia, sagte, dass es MIRI aufgrund des Mangels an unterstützender Forschung schwer fallen werde, die Gesetzgeber zu überzeugen.
Der Aufruf von MIRI hat umfangreiche Diskussionen über die Sicherheit und Entwicklungsgeschwindigkeit von KI ausgelöst. Obwohl seine Ansichten extrem sind, unterstreicht er auch Bedenken hinsichtlich der potenziellen Risiken künstlicher Intelligenz und verdient ernsthafte Überlegungen und Überlegungen seitens der Industrie und der Regierung. In Zukunft wird es eine wichtige Frage sein, wie man die Entwicklung künstlicher Intelligenz und Sicherheitsrisiken in Einklang bringen kann.