Microsoft недавно провела углубленное исследование возможностей моральных рассуждений крупных языковых моделей, особенно в классической трамвайной проблемной ситуации. Результаты показывают, что, хотя размер модели, как правило, повышает производительность, более крупные модели работают на удивление плохо с точки зрения этического принятия решений. Этот вывод совершенно противоречит первоначальным ожиданиям исследователей, что вызвало переосмысление академических кругов о взаимосвязи между сложностью модели и способностями морального суждения.
Тем не менее, самая мощная языковая модель, GPT-4, по-прежнему лучше всего работает в моральных баллах, демонстрируя свою превосходную способность решать сложные моральные проблемы. GPT-4 не только хорошо работает на техническом уровне, но и его моральные способности также достиг нового уровня, что обеспечивает важную ссылку для будущего применения искусственного интеллекта в принятии этических решений.
Результаты этого исследования имеют глубокие последствия для области искусственного интеллекта. Это не только показывает, что размер модели и способность морального мышления не являются простой положительной корреляцией, но также подчеркивает, что при разработке больших языковых моделей следует уделять больше внимания обучению и оптимизации на моральных и этических уровнях. Этот вывод может побудить исследователей перепроектировать модельную архитектуру, чтобы лучше сбалансировать технические результаты с моральным суждением.
Кроме того, это исследование также вызвало обширные дискуссии по этическим стандартам искусственного интеллекта. Поскольку технология ИИ все чаще используется в различных областях, как обеспечить, чтобы эти технологии могли принимать разумные решения в сложных моральных ситуациях, стало неотложной проблемой. Это исследование, проведенное Microsoft, предоставляет эмпирические данные для формулирования соответствующих этических стандартов и помогает способствовать здоровому развитию индустрии искусственного интеллекта.
В целом, это исследование Microsoft не только бросает вызов нашему присущему пониманию производительности крупных языковых моделей, но также предоставляет новые идеи для будущего направления развития искусственного интеллекта. Непрерывно оптимизируя моральную способность модели модели, мы должны разработать систему искусственного интеллекта, которая является умнее и в более важной степени в соответствии с человеческими этическими стандартами и внесет больший вклад в прогресс общества.