In jüngster Zeit kritisierte Miles Brundage, ehemaliger Leiter der politischen Forschung bei OpenAI, die narrative Veränderung des Unternehmens in der KI -Sicherheit und sagte, OpenAI schreibe seine Sicherheitsgeschichte in KI -Systemen um. Er sagte, Openai könnte langfristige Sicherheitsmaßnahmen bei der Verfolgung der allgemeinen künstlichen Intelligenz (AGI) ignorieren.

OpenAI hat sich verpflichtet, seine ehrgeizige Vision zu fördern, insbesondere im Zusammenhang mit dem zunehmenden Aufstieg von Wettbewerbern wie Deepseek. Während der Verfolgung der Entwicklung von AGI betont das Unternehmen häufig das Potenzial von Superkünstlern -Intelligenzagenten, aber diese Haltung wurde nicht allgemein anerkannt. Brendage ist der Ansicht, dass OpenAI inkonsistente Erzählungen mit dem Einsatz und der Sicherheit seiner vorhandenen KI -Modelle hat.
Kürzlich veröffentlichte OpenAI ein Dokument zum schrittweisen Einsatz seines KI -Modells, um seinen umsichtigen Ansatz zu demonstrieren. Wenn Sie GPT-2 als Beispiel im Dokument nehmen, wird unterstreicht, dass beim Umgang mit dem aktuellen System ein hohes Maß an Vorsicht beibehalten werden sollte. OpenAI erwähnt in der Dokumentation: "In einer diskontinuierlichen Welt stammen Sicherheitsunterricht aus einem hohen Maß an Vorsicht mit den heutigen Systemen, was genau der Ansatz ist, den wir gegen das GPT-2-Modell verfolgen."
Brendage stellte dies jedoch in Frage. Er glaubt, dass die Veröffentlichung von GPT-2 auch einem schrittweisen Ansatz folgt, und Sicherheitsexperten haben Openais vorsichtiges Handling gelobt. Er glaubt, dass vergangene Klugheit nicht übermäßig, sondern notwendige und verantwortungsbewusste Praxis war.
Darüber hinaus äußerte Brendage Bedenken hinsichtlich der Behauptung von OpenAI, dass AGI eher schrittweise Schritte als plötzliche Durchbrüche durchlaufen wird. Er glaubt, dass das Missverständnis von Openai über die Geschichte der GPT-2-Veröffentlichung und ihre Wiederaufnahme der Sicherheitsgeschichte beunruhigend sind. Er stellte auch fest, dass Dokumente, die von OpenAI veröffentlicht wurden, irgendwie zu Sicherheitsbedenken als Überreaktion angesehen werden können, was im Zusammenhang mit den sich ständig weiterentwickelnden KI-Systemen erhebliche Risiken darstellen kann.
Dies ist nicht das erste Mal, dass Openai kritisiert wurde. Experten fragen sich, ob Unternehmen einen angemessenen Kompromiss zwischen langfristigen Sicherheit und kurzfristigen Leistungen eingereicht haben. Die Bedenken von Brendage haben die KI -Sicherheit erneut aufmerksam gemacht.
Schlüsselpunkte:
Der ehemalige politische Leiter von Openai stellte die Änderungen des Unternehmens in der KI -Sicherheitsnarrative in Frage, weil er glaubte, es sei ein Missverständnis der Geschichte.
Von OpenAI veröffentlichte Dokumente betonen die Bedeutung der vorsichtigen Veröffentlichung von KI -Modellen, wurden jedoch von ehemaligen Mitarbeitern kritisiert.
Experten äußerten Bedenken hinsichtlich der zukünftigen Entwicklung von KI -Systemen.