Auf der Beijing Intelligent Source Conference rückten erneut große KI-Modelle in den Fokus. Viele in- und ausländische KI-Führungskräfte und Turing-Award-Gewinner kamen zusammen, um hitzige Diskussionen über die zukünftige Entwicklung und Überwachung der KI zu führen. OpenAI-Gründer Sam Altman, Meta-Chef-KI-Wissenschaftler Yann LeCun und andere Branchenführer haben ihre Meinung geäußert und heftige Debatten über die Zukunft des GPT-Modells, die KI-Überwachung und andere Aspekte ausgelöst. Der Herausgeber von Downcodes führt Sie durch die wunderbaren Momente der Konferenz und interpretiert die wichtigsten Informationen hinter diesem KI-Fest.
Die Popularität von Chat GPT hat noch nicht nachgelassen, und eine Konferenz hat die Aufmerksamkeit großer KI-Modelle auf ein neues Niveau gehoben.
Auf der gerade abgehaltenen Zhiyuan-Konferenz in Peking versammelten sich viele legendäre KI-Tycoons, darunter Zhang Bo und Zhang Hongjiang, die modernsten inländischen KI-Führungskräfte, sowie vier Persönlichkeiten, darunter Geoffery Hinton, Yann LeCun, Yao Qizhi und Joseph Sifakis. Gewinner des Spirit Award, Open AI-Gründer Sam Altman, PaLM-E und RoBERTa sowie andere Führungskräfte von KI-Unternehmen.
Da jede Zhiyuan-Konferenz einer professionellen akademischen ideologischen Linie folgt, genießt sie in Elitekreisen auf dem Gebiet der künstlichen Intelligenz im In- und Ausland ein sehr hohes Ansehen, in der Öffentlichkeit ist sie jedoch etwas kalt. Auf dieser Konferenz wies Sam Altman darauf hin, dass Open AI Veränderungen in der KI-Forschung fördern muss, um die Entwicklung der allgemeinen KI-Technologie zu verstehen.
Diese Aussage wurde jedoch von vielen KI-Tycoons abgelehnt. Unter ihnen kritisierte Stuart Russell, Professor an der University of California in Berkeley, die von Open AI entwickelten Chat-GPT und GPT-4, weil sie die Welt nicht „beantworteten“ und keinen Entwicklungsschritt für die allgemeine KI darstellten. Yang Likun wies sogar direkt darauf hin, dass dem aktuellen autoregressiven GPT-Modell Planungs- und Argumentationsfähigkeiten fehlen und das GPT-System möglicherweise in Zukunft aufgegeben wird.
Neben heftigen wissenschaftlichen Debatten standen bei diesem Treffen auch die Regulierung der aktuellen KI und die weitere Entwicklungsrichtung der KI im Mittelpunkt der Diskussion.
Wie wird KI in Zukunft reguliert?
Während generative KI seit 2023 viele Bereiche mit überwältigender Geschwindigkeit erfasst hat, haben verschiedene durch KI verursachte Probleme auch die Besorgnis der Außenwelt verstärkt.
In unserem Land ist „KI-Betrug“ zu einem der Bereiche geworden, die in letzter Zeit gesellschaftliche Besorgnis erregen. Vor einigen Tagen meldete die Polizei in Baotou, Innere Mongolei, einen Fall von Betrug mithilfe von KI. Herr Guo, der gesetzliche Vertreter eines Unternehmens in Fuzhou, wurde innerhalb von 10 Minuten um 4,3 Millionen Yuan betrogen. Berichten zufolge nutzten Betrüger KI-Technologie zur Gesichtsveränderung und Lautmalerei, um sich als Bekannte auszugeben und Betrug zu begehen. Zufälligerweise wurde Xiao Liu aus Changzhou in der Provinz Jiangsu von einem Betrüger, der vorgab, sein Klassenkamerad zu sein, dazu verleitet, Sprach- und Videoanrufe zu senden. Nachdem Xiao Liu die „echte Person“ gesehen hatte, glaubte er es und „lieh“ dem Betrüger 6.000 Yuan.

Quelle: Douyin
Tatsächlich hängt der Grund für das Auftreten von KI-Betrugsfällen mit der rasanten Entwicklung der aktuellen KI-Technologie und der kontinuierlichen Senkung der Schwelle für die Technologiesynthese zusammen. Aus einer weiteren Perspektive: Wenn die KI-Großmodelltechnologie weiterhin Durchbrüche erzielt, wird sie in Zukunft schrittweise von der Gesichtssynthese zur Ganzkörpersynthese und zur 3D-Synthesetechnologie übergehen und der Syntheseeffekt wird realistischer sein.
In den Vereinigten Staaten ist die Frage, ob KI Wahlen beeinflussen wird, in den Fokus lokaler Mediendiskussionen geraten. Laut Associated Press können die heutigen hochentwickelten generativen KI-Tools die Stimme und das Bild einer Person in Sekundenschnelle „klonen“ und so eine große Anzahl „gefälschter Materialien“ erstellen. Solange sie an einen leistungsstarken Social-Media-Algorithmus gebunden ist, kann KI schnell das Publikum ansprechen und die Botschaft verbreiten, wodurch die Wahl in einem beispiellosen Ausmaß und mit beispielloser Geschwindigkeit zerstört wird.
Andere Medien in den Vereinigten Staaten gehen davon aus, dass es nicht ausgeschlossen ist, dass die beiden Parteien in den Vereinigten Staaten KI-Technologie für Propaganda, Spendenaktionen und andere Aktivitäten einsetzen werden, da die nächsten Präsidentschaftswahlen in den Vereinigten Staaten im nächsten Jahr stattfinden werden. Noch wichtiger ist, dass Chat GPT eine hervorragende Leistung bei den Textfunktionen bietet. Dadurch kann das Team eines Kandidaten in nur wenigen Sekunden eine schön formulierte Rede verfassen.
Aufgrund verschiedener Bedenken hinsichtlich der KI aus der Außenwelt haben vor einigen Tagen „KI-Godfather“ Jeffrey Hinton, Anthropic-CEO Dario Amodai, Google Deep Mind-CEO Demis Hassabis usw. mehr als 350 Führungskräfte und Experten auf dem Gebiet der KI unterzeichnet In einer gemeinsamen Erklärung heißt es: „Die Eindämmung des durch KI verursachten Aussterberisikos sollte neben anderen gesellschaftlichen Risiken wie Epidemien und Atomkrieg zu einer globalen Priorität werden.“

Zur Frage der Regulierung nachfolgender KI wies Sam Altman auf der Intelligent Source Conference darauf hin, dass Open AI dieses Problem derzeit auf vielfältige Weise löst. Erstens startete Open AI bereits am 26. Mai ein Anreizprogramm und investierte 1 Million US-Dollar, um effektive KI-Governance-Lösungen von der Gesellschaft zu erbitten.
Zweitens glaubt Sam Altman, dass Menschen nicht in der Lage sind, einige bösartige Modelle zu erkennen, die böse Dinge tun. Open AI investiert derzeit in einige neue und ergänzende Richtungen und hofft auf Durchbrüche. Aber skalierbare Überwachung ist ein Versuch, KI-Systeme zu nutzen, um Menschen bei der Entdeckung von Fehlern in anderen Systemen zu unterstützen, während Erklärungsfähigkeit darin besteht, GPT-4 zur Erklärung von GPT-2-Neuronen zu verwenden, obwohl es noch ein langer Weg ist, glaubt Open AI Technologie für maschinelles Lernen kann die Erklärbarkeit von KI weiter verbessern. Gleichzeitig glaubt Sam Altman auch, dass wir in Zukunft nur durch intelligentere und hilfreichere Modelle die angestrebten Vorteile allgemeiner KI besser realisieren und KI-Risiken reduzieren können.
Obwohl Open AI kurzfristig keine GPT-5-Version herausbringen wird, könnte die Welt in den nächsten zehn Jahren über leistungsfähigere KI-Systeme verfügen, und die Welt muss sich im Voraus vorbereiten. Die spätere Kernarbeit von Open AI an großen KI-Modellen befindet sich noch in der Ausbildung und bereitet den Aufbau einer globalen Datenbank vor, um globale KI-Werte und -Präferenzen widerzuspiegeln und KI-Sicherheitsforschung in Echtzeit mit der Welt zu teilen.
Zusätzlich zu den eigenen Bemühungen von Open AI forderte Sam Altman auch weltweite gemeinsame Anstrengungen zur Verbesserung der Überwachung von KI. Sam Altman wies beispielsweise darauf hin, dass China derzeit über einige der besten KI-Talente der Welt verfügt, wenn man bedenkt, dass die Lösung der Schwierigkeit, KI-Systeme aufeinander abzustimmen, die besten Köpfe aus der ganzen Welt erfordert.
Daher hofft Sam Altman auch, dass chinesische KI-Forscher in Zukunft zu KI-Risiken beitragen können. Tegmark glaubt auch, dass China derzeit am meisten bei der Regulierung künstlicher Intelligenz getan hat, gefolgt von Europa und schließlich den Vereinigten Staaten.

Bildquelle: Weisheitskonferenz
Darüber hinaus wies Sam Altman auch darauf hin, dass es bei der globalen KI-Aufsicht Schwierigkeiten bei der Zusammenarbeit gebe, dies jedoch tatsächlich eine Chance sei. Während KI die Welt zusammenbringt, muss sie in Zukunft auch einen systematischen Rahmen und Sicherheitsstandards einführen.
Angesichts der aktuellen Verschärfung des Spiels zwischen den Weltmächten, dem Ausbruch geopolitischer Konflikte an mehreren Stellen und der unterschiedlichen Haltung der Regierungen verschiedener Länder gegenüber generativer KI wird es jedoch schwierig, eine globale Zusammenarbeit bei der KI-Regulierung umzusetzen kurzfristige Auswirkungen auf das Marktgeschäft generativer KI-Unternehmen.
Europa stand schon immer an der Spitze der KI-Regulierung. Im Mai stand die EU kurz vor der Verabschiedung eines Gesetzes zur Regulierung der künstlichen Intelligenz. Es wird erwartet, dass es sich um das weltweit erste umfassende Gesetz zur künstlichen Intelligenz handelt, das zu einem Präzedenzfall für entwickelte Volkswirtschaften werden könnte .
Die Präsidentin der Europäischen Kommission, Ursula von der Leyen, sagte zuvor in einem Interview mit den Medien: „Wir wollen, dass Systeme der künstlichen Intelligenz unabhängig von ihrer Quelle präzise, zuverlässig, sicher und diskriminierungsfrei sind.“ KI wird sich anschließend vom EU-Markt zurückziehen. Daher ist die kontinuierliche Verbesserung ihres generativen KI-Modells im Einklang mit Anpassungen an globale Regulierungsrichtlinien nicht nur ein Problem, mit dem Open AI selbst konfrontiert ist, sondern auch ein Problem, das die gesamte Branche weiterhin angehen muss beachten.
Alles in allem präsentierte die Beijing Intelligent Source Conference eine Szene starker Entwicklung im Bereich der KI und betonte auch die Dringlichkeit der KI-Regulierung und die Bedeutung der globalen Zusammenarbeit. Wie die Entwicklung und Überwachung der KI-Technologie auch in Zukunft in Einklang gebracht werden kann, erfordert noch globale gemeinsame Anstrengungen zur Erforschung. Der Herausgeber von Downcodes wird die Trends im KI-Bereich weiterhin im Auge behalten und Ihnen weitere spannende Berichte bringen.