Warum haben Akademiker aus China und Singapur beim China-Singapore Artificial Intelligence Frontier and Governance Seminar kaltes Wasser auf die KI geworfen?
Autor:Eve Cole
Aktualisierungszeit:2024-11-15 12:24:01

Seit das Konzept der künstlichen Intelligenz erstmals im Jahr 1956 vorgeschlagen wurde, hat sich die KI in Richtung kognitiver Intelligenz weiterentwickelt, die auf rechnerischer Intelligenz und wahrnehmungsbezogener Intelligenz basiert. In den letzten Jahren hat die KI-Entwicklung mit dem Aufkommen von ChatGPT und Sora rasante Fortschritte gemacht. Beim Sino-Singapore Artificial Intelligence Frontier and Governance Seminar, das heute (28. Oktober) von der Chinese Academy of Engineering und der Singapore Academy of Engineering veranstaltet und von der Tongji-Universität ausgerichtet wurde, haben viele Akademiker jedoch kaltes Wasser gegen das „KI-Fieber“ gegossen. „Netzwerkendogene Sicherheitsprobleme stellen das zugrunde liegende Antriebsparadigma des heutigen digitalen Ökosystems umfassend in Frage.“ Wu Jiangxing, Akademiker der Chinesischen Akademie für Ingenieurwissenschaften und Professor an der Fudan-Universität, sagte unverblümt, dass es bedauerlich sei, dass weder das Sicherheitssystem selbst noch das Netzwerk-Sicherheitskräfte, die Heime und Pflegeheime bewachen, sind derzeit in der Lage, die drei wichtigsten Fragen zur Seelenfolter zu beantworten: „Gibt es Hintertüren/Falltüren?“ „Gibt es mehrere Sicherheits-Overlay-Probleme?“ Er wies ernsthaft darauf hin, dass das aktuelle KI-Anwendungssystem ein gravierendes Ungleichgewicht zwischen Sicherheitsverantwortung und Risiken aufweist. Kein Händler kann garantieren, dass seine Produkte keine Sicherheitslücken und Hintertüren aufweisen, und keine Prüfstelle kann garantieren, dass die zur Prüfung eingereichten Produkte frei von Sicherheitslücken und Hintertüren sind. Dies ist im KI-Zeitalter zu einem unausweichlichen Albtraum für alle Länder geworden. Bei dem Treffen analysierten viele Experten, dass scheinbar leistungsstarke künstliche Intelligenz und große Modelle auch Mängel in Bezug auf Verbrauch, Sicherheit und Ethik aufweisen. Die Entwicklung der künstlichen Intelligenz ist noch im Gange und es gibt noch viel Raum für Entwicklung. Wissenschaftler aus China und Singapur sollten die Zusammenarbeit stärken und zusammenarbeiten, um die KI energiesparender, sicherer und tugendhafter zu machen. Scheinbar leistungsstarke künstliche Intelligenz birgt tatsächlich viele versteckte Gefahren. Wenn es um Netzwerksicherheitsrisiken geht, waren viele Menschen besonders beeindruckt von dem Microsoft-Bluescreen-Vorfall, der sich im Juli dieses Jahres ereignete. Am 19. Juli stellten Benutzer aus vielen Ländern auf der ganzen Welt fest, dass die Computer ihres Unternehmens einen Bluescreen hatten, und meldeten: „Das Gerät ist auf ein Problem gestoßen und muss neu gestartet werden.“ Anschließend wurde bestätigt, dass das Bluescreen-Problem mit einem Software-Update zusammenhängt Nach Ansicht von Wu Jiangxing ist dies ein typischer Fall von Sicherheits-„Leibwächtern“, die Menschen in den Rücken fallen. „Künstliche Intelligenz und Sicherheitsprobleme sind eng miteinander verbunden, und Sicherheit ist ein genetischer Fehler.“ Die Mutter in der modernen Computerarchitektur muss auf die Sicherheitsprobleme der KI-Betriebsumgebung geachtet werden. "
Diesbezüglich vertritt Zheng Qinghua, Präsident der Tongji-Universität und Akademiker der Chinesischen Akademie für Ingenieurwissenschaften, die gleiche Ansicht: „Obwohl wir die großen Errungenschaften großer Modelle voll und ganz bestätigen, müssen wir uns auch zutiefst darüber im Klaren sein, dass es einige inhärente Mängel gibt.“ große Modelle.“ Zheng Qinghua gab ein Beispiel. Die erste Leistung ist Übermäßiger Datenverbrauch und Rechenleistung. „Eines Tages werden die wertvollen Informationen, die Menschen aus Open-Source-Daten im Internet gewinnen, eine Obergrenze erreichen, genau wie Menschen seltene Metalle aus Bodenschätzen abbauen, und es wird eine Zeit geben, in der sie erschöpft sind.“ von katastrophaler Vergesslichkeit und schwacher Traktionsfähigkeit der Szene. Zheng Qinghua erklärte, dass große Modelle das Neue mögen und das Alte hassen und es schwierig ist, Schlussfolgerungen aus einem Beispiel zu ziehen. Oft ist es schwierig, sich an A anzupassen, aber es ist schwierig, sich an B anzupassen. Es ist nicht leicht, es zu finden ein Gleichgewicht zwischen beiden. Der dritte Grund ist die schwache Denkfähigkeit. Das große Modell verwendet einen autoregressiven Trainingsalgorithmus, wodurch es nicht in der Lage ist, die Fähigkeit zum logischen Denken zu entwickeln, die auf dem von Menschen entwickelten kausalen Denken basiert. Mit der autoregressiven Generierungsmethode ist es auch schwierig, komplexe Argumentationsaufgaben zu bewältigen, die Rückverfolgung und Versuch und Irrtum erfordern, was häufig dazu führt, dass große Modelle falsche Informationen lernen, um Aufgaben zu lösen. Dieses Phänomen wird als „Clever-Hans-Effekt“ bezeichnet. Der vierte inhärente Fehler besteht darin, dass das große Modell nicht weiß, wo es schief gelaufen ist und warum es schief gelaufen ist, geschweige denn, es zu korrigieren, wenn es bekannt ist. Zheng Qinghua sagte unverblümt, dass diese inhärenten Mängel bei großen Modellen zu Problemen wie Halluzinationen und schlechter Steuerbarkeit geführt hätten. „Vor allem bei technischen Anwendungen und anderen Szenarien, in denen wir wissen müssen, was passiert und warum, kann man sagen, dass große Modelle machtlos sind.“ Wen Yonggang, Akademiker der Singapore Academy of Engineering und Professor an der Nanyang Technological University, glaubt, dass die menschliche Gesellschaft befindet sich in einer Phase der doppelten Transformation von Digitalisierung und Nachhaltigkeit. Gerade im Zuge der digitalen Transformation haben sich viele Aktivitäten von Offline auf Online verlagert, was viele Rechenressourcen und Server verbraucht. Prognosen zeigen, dass der Stromverbrauch der Rechenzentren Singapurs bis 2030 12 % des gesamten Stromverbrauchs der Gesellschaft erreichen wird. Noch alarmierender ist, dass der umfassende Einsatz von KI auch die CO2-Emissionen erhöhen und verheerende Auswirkungen auf die Umwelt haben wird.
Lenken Sie die KI in die richtige Richtung, wenn die KI mit geschlossenen Augen rennt. Wie können dann Menschen, die die Technologie entwickeln, das Lenkrad ergreifen? Bei dem Treffen machten Experten auch umsetzbare Vorschläge, die auf langfristiger Forschung basierten. Wu Jiangguang hat seit 2013 die endogenen Sicherheits- und Nachahmungsverteidigungstheorien entwickelt. Basierend auf der theoretischen Grundlage baute das Team im Nanjing-Labor eine endogene Sicherheitsarchitektur auf, um intelligente Fahrsysteme zu ermöglichen. Das System verfügt über mehr als 20 Anwendungsszenarien und mehr als 100 differenzierte Anwendungsindividuen. Es weist eine umfassende Erkennungserfolgsquote von mehr als 90 % bei häufigen KI-Problemen wie Gegenangriffen und Backdoor-Schwachstellen auf. Zheng Qinghua sagte, dass Geschichte und Erfahrung bewiesen hätten, dass jeder menschliche Fortschritt in der Hirnforschung eine Referenz, Inspiration und Anleitung für die Erforschung künstlicher neuronaler Netze und maschineller Intelligenz habe. „Die heutigen großen Modelle sind nur die vorläufigste und einfachste Referenz zum menschlichen Gehirn. Wenn wir tiefgreifende Referenzen aus der Hirnforschung ziehen können, insbesondere zu den Mechanismen der Gedächtnisrepräsentation, -aktivierung, -abrufung und -kodierung, die einzigartig für den Menschen sind, werden wir …“ Es wird erwartet, dass sie die Probleme lösen, mit denen die heutigen großen Modelle konfrontiert sind. „Daher gibt es verschiedene inhärente Mängel.“ Die Tongji-Universität öffnet derzeit disziplinäre Grenzen, fördert die Integration von Informatik und Hirnforschung, untersucht den Zusammenhang zwischen menschlichem Gehirngedächtnis und Maschinengedächtnis und erforscht neue Wege, die Informationswissenschaft für das Studium der Hirnwissenschaften zu nutzen.
Die heutige künstliche Intelligenz hat die Grenzen traditioneller Disziplinen durchbrochen und erstreckt sich auf fast alle Disziplinen. Guo Guisheng, Akademiker der Singapore Academy of Engineering und Professor an der Singapore University of Technology and Design, ist ebenfalls Mitglied der AI-RAN Association. Es versteht sich, dass AI-RAN sich auf „Artificial Intelligence (AI)-Radio Access Network (RAN)“ bezieht und ein Branchenverband ist, der darauf abzielt, die Integration von künstlicher Intelligenz und drahtloser Kommunikation wiederzubeleben und technologische Innovationen voranzutreiben. Guo Guisheng stellte vor, dass eine große Anzahl von KI-bezogenen Projekten und Quantencomputing-Projekten durch interdisziplinäre Vernetzung gefördert werde. Seiner Ansicht nach erfordert die Führung der KI, Gutes zu tun, nicht nur den Austritt aus akademischen Kreisen, sondern auch die aktive Verknüpfung mit globaler Weisheit. Er hofft, dass in Zukunft weitere Labore und Unternehmen chinesischer Universitäten dem KI-Freundeskreis beitreten und Partnerschaften knüpfen. Der Reporter erfuhr, dass Singapur als weltberühmte „Hauptstadt der künstlichen Intelligenz“ eines der ersten Länder der Welt war, das eine nationale Strategie für künstliche Intelligenz eingeführt hat, und viel Pionierarbeit in der Governance künstlicher Intelligenz geleistet hat. Vor Ort schlug Zheng Qinghua auch vor, dass wir in Zukunft das schöne Bild „Jeder hat Intelligenz, Maschinen haben Intelligenz, jeder hat seine eigene Weisheit und Weisheit und Weisheit werden geteilt“ verwirklichen wollen, Experten auf diesem Gebiet Künstliche Intelligenz aus China und Singapur müssen zusammenarbeiten, um etwas für diese Welt zu schaffen.