На Пекинской конференции по интеллектуальным источникам большие модели искусственного интеллекта снова оказались в центре внимания. Многие отечественные и зарубежные лидеры в области ИИ и лауреаты премии Тьюринга собрались вместе, чтобы провести горячие дискуссии о будущем развитии ИИ и контроле за ним. Основатель OpenAI Сэм Альтман, главный научный сотрудник Meta по искусственному интеллекту Янн ЛеКун и другие лидеры отрасли выразили свое мнение, вызвав ожесточенные дебаты о будущем модели GPT, надзоре за искусственным интеллектом и других аспектах. Редактор Downcodes познакомит вас с замечательными моментами конференции и интерпретирует ключевую информацию, лежащую в основе этого праздника искусственного интеллекта.
Популярность Chat GPT еще не угасла, а конференция подняла внимание к крупным моделям ИИ на новую высоту.
На только что состоявшейся Пекинской конференции Чжиюань собрались многие легендарные магнаты искусственного интеллекта, в том числе Чжан Бо и Чжан Хунцзян, самые передовые отечественные лидеры в области искусственного интеллекта, а также четыре фигуры, в том числе Джеффри Хинтон, Ян Лекунь, Яо Цичжи и Джозеф Сифакис. Лауреат премии Spirit Award, основатель Open AI Сэм Альтман, компании PaLM-E и RoBERTa и другие руководители компаний, занимающихся искусственным интеллектом.
Поскольку каждая конференция Чжиюань придерживается профессиональной академической идеологической линии, она имеет очень высокую репутацию среди элитных кругов в области искусственного интеллекта внутри страны и за рубежом, но для публики это немного холодно. На этой конференции Сэм Альтман отметил, что для понимания развития общих технологий искусственного интеллекта Open AI должен способствовать изменениям в исследованиях искусственного интеллекта.
Однако против этого заявления выступили многие магнаты искусственного интеллекта. Среди них Стюарт Рассел, профессор Калифорнийского университета в Беркли, раскритиковал Chat GPT и GPT-4, разработанные Open AI, за то, что они не «отвечают» на вопросы. Они не понимают мир и не являются шагом в развитии общего ИИ. Ян Ликунь даже прямо указал, что нынешней авторегрессионной модели GPT не хватает возможностей планирования и рассуждения, и от системы GPT могут отказаться в будущем.
Помимо ожесточенных академических дебатов, в центре обсуждения на этой встрече также оказались способы регулирования нынешнего ИИ и последующее направление развития ИИ.
Как будет регулироваться ИИ в будущем?
С 2023 года, когда генеративный ИИ с огромной скоростью охватил многие области, различные проблемы, вызванные ИИ, также усилили обеспокоенность внешнего мира.
В нашей стране «мошенничество с использованием ИИ» стало одной из областей, вызывающих в последнее время общественную обеспокоенность. Несколько дней назад полиция Баотоу, Внутренняя Монголия, сообщила о случае мошенничества с использованием искусственного интеллекта г-на Го, законного представителя компании в Фучжоу, за 10 минут украли 4,3 миллиона юаней. По имеющимся данным, мошенники использовали технологию изменения лица и звукоподражания с помощью искусственного интеллекта, чтобы притвориться знакомыми и совершить мошенничество. По совпадению, Сяо Лю из Чанчжоу, провинция Цзянсу, был обманут мошенником, притворившимся его одноклассником, чтобы отправить голосовые и видеозвонки. Увидев «настоящего человека», Сяо Лю поверил этому и «одолжил» мошеннику 6000 юаней.

Источник: Дуин
Фактически, причина возникновения случаев мошенничества с использованием ИИ связана с быстрым развитием нынешних технологий ИИ и постоянным снижением порога синтеза технологий. В дальнейшем, если технология больших моделей искусственного интеллекта продолжит совершать прорывы, в будущем она постепенно перейдет от синтеза лица к синтезу всего тела и технологии 3D-синтеза, и эффект синтеза будет более реалистичным.
В Соединенных Штатах вопрос о том, повлияет ли ИИ на выборы, стал предметом обсуждения в местных СМИ. По данным Associated Press, современные сложные генеративные инструменты искусственного интеллекта могут «клонировать» чей-то голос и изображение за считанные секунды, создавая большое количество «фейковых материалов». Пока он связан с мощным алгоритмом социальных сетей, ИИ может быстро ориентироваться на аудиторию и распространять информацию, уничтожая выборы в беспрецедентных масштабах и с беспрецедентной скоростью.
Другие СМИ в США прогнозируют, что, поскольку следующие президентские выборы в США пройдут в следующем году, не исключено, что две партии в США будут использовать технологии искусственного интеллекта для пропаганды, сбора средств и других мероприятий. Что еще более важно, Chat GPT обладает превосходной производительностью при работе с текстом. В результате команда кандидата может составить красиво сформулированную речь всего за несколько секунд.
Основываясь на различных опасениях по поводу ИИ из внешнего мира, несколько дней назад «Крестный отец ИИ» Джеффри Хинтон, генеральный директор Anthropic Дарио Амодай, генеральный директор Google Deep Mind Демис Хассабис и т. д. Более 350 руководителей и экспертов в области ИИ подписали соглашение совместное заявление, в котором говорится, что «смягчение риска вымирания, создаваемого ИИ, должно стать глобальным приоритетом наряду с другими рисками в масштабе общества, такими как эпидемии и ядерная война».

Что касается вопроса о том, как регулировать последующий ИИ, Сэм Альтман отметил на конференции Intelligent Source Conference, что Open AI в настоящее время решает эту проблему различными способами. Во-первых, уже 26 мая Open AI запустил программу стимулирования, инвестировав 1 миллион долларов США в поиск эффективных решений по управлению искусственным интеллектом у общества.
Во-вторых, Сэм Альтман считает, что люди не способны обнаружить некоторые вредоносные модели, совершающие какие-то злые дела. В настоящее время Open AI инвестирует в некоторые новые и взаимодополняющие направления, надеясь добиться прорыва. Но масштабируемый надзор — это попытка использовать системы искусственного интеллекта, чтобы помочь людям обнаруживать дефекты в других системах, в то время как способность объяснения заключается в использовании GPT-4 для объяснения нейронов GPT-2. Хотя путь еще долгий, Open AI верит в это. Технология машинного обучения. Она может еще больше улучшить объяснимость ИИ. В то же время Сэм Альтман также считает, что в будущем, только сделав модели более умными и полезными, мы сможем лучше реализовать целевые преимущества общего ИИ и снизить риски, связанные с ИИ.
Наконец, хотя Open AI не выпустит версию GPT-5 в краткосрочной перспективе, в ближайшие десять лет в мире могут появиться более мощные системы искусственного интеллекта, и миру необходимо подготовиться заранее. Последующая основная работа Open AI над крупными моделями ИИ все еще находится в стадии обучения, и компания готовится создать глобальную базу данных, которая будет отражать глобальные ценности и предпочтения ИИ, а также делиться исследованиями в области безопасности ИИ со всем миром в режиме реального времени.
В дополнение к собственным усилиям Open AI Сэм Альтман также призвал к глобальным совместным усилиям по улучшению надзора за ИИ. Например, Сэм Альтман отметил, что в настоящее время в Китае работают одни из лучших специалистов в области ИИ в мире, учитывая, что для решения проблемы согласования систем ИИ требуются лучшие умы со всего мира.
Поэтому Сэм Альтман также надеется, что китайские исследователи ИИ смогут внести свой вклад в риски ИИ в будущем. Тегмарк также считает, что в настоящее время больше всего в регулировании искусственного интеллекта сделал Китай, за ним следует Европа и, наконец, США.

Источник изображения: Конференция мудрости
Кроме того, Сэм Альтман также отметил, что существуют трудности в сотрудничестве в сфере глобального надзора за ИИ, но на самом деле это возможность. Хотя ИИ объединяет мир, ему также необходимо ввести систематическую структуру и стандарты безопасности в будущем.
Однако, учитывая нынешнее обострение игры между мировыми державами, геополитические конфликты, вспыхивающие в нескольких точках, а правительства разных стран по-разному относятся к генеративному ИИ, это затруднит реализацию глобального сотрудничества по регулированию ИИ в Краткосрочное влияние на рыночный бизнес компаний, занимающихся генеративным искусственным интеллектом.
Европа всегда была в авангарде регулирования искусственного интеллекта. В мае ЕС был близок к принятию закона о регулировании технологий искусственного интеллекта. Ожидается, что этот закон также станет первым в мире всеобъемлющим законопроектом об искусственном интеллекте и может стать прецедентом для развитых экономик. .
Президент Европейской комиссии Урсула фон дер Ляйен ранее заявила в интервью средствам массовой информации: «Мы хотим, чтобы системы искусственного интеллекта были точными, надежными, безопасными и недискриминационными, независимо от их источника. Введение соответствующих законов и правил ЕС может сделать их открытыми. Впоследствии ИИ уйдет с рынка ЕС. Поэтому вопрос о том, как постоянно совершенствовать свою генеративную модель ИИ в соответствии с корректировками глобальной регуляторной политики, является не только проблемой, с которой сталкивается сама Open AI, но и проблемой, которую должна продолжать решать вся отрасль. обратите внимание.
В целом, Пекинская конференция по интеллектуальным источникам представила сцену энергичного развития в области ИИ, а также подчеркнула актуальность регулирования ИИ и важность глобального сотрудничества. В будущем вопрос о том, как сбалансировать развитие технологий искусственного интеллекта и контроль над ними, по-прежнему требует глобальных совместных усилий. Редактор Downcodes продолжит следить за тенденциями в области ИИ и предлагать вам еще больше интересных отчетов.