Microsoft hat kürzlich eine eingehende Untersuchung der moralischen Argumentationsfunktionen von Großsprachmodellen durchgeführt, insbesondere in der klassischen Tram-Problemsituation. Die Ergebnisse zeigen, dass die Größe des Modells im Allgemeinen als die Leistung in Betracht gezogen wird, größere Modelle jedoch in Bezug auf ethische Entscheidungsfindung überraschend schlecht abschneiden. Dieser Befund widerspricht vollständig den anfänglichen Erwartungen der Forscher und löst die Überlegung der Beziehung zwischen Modellkomplexität und moralischen Beurteilungsfähigkeit durch die Akademie.
Trotzdem spielt das mächtigste Sprachmodell, GPT-4, immer noch am besten in den moralischen Bewertungen und zeigt seine überlegene Fähigkeit, mit komplexen moralischen Themen umzugehen. GPT-4 funktioniert nicht nur auf technischer Ebene gut, sondern seine Fähigkeit zur moralischen Argumentation hat auch ein neues Niveau erreicht, was eine wichtige Referenz für die zukünftige Anwendung künstlicher Intelligenz bei ethischen Entscheidungen darstellt.
Die Ergebnisse dieser Studie haben tiefgreifende Auswirkungen auf das Gebiet der künstlichen Intelligenz. Es zeigt nicht nur, dass die Modellgröße und die Fähigkeit des moralischen Denkens keine einfache positive Korrelation sind, sondern auch betont, dass bei der Entwicklung großer Sprachmodelle mehr Aufmerksamkeit auf das Training und die Optimierung auf moralischer und ethischer Ebene geschenkt werden sollte. Dieser Befund kann die Forscher dazu veranlassen, die Modellarchitektur neu zu gestalten, um die technische Leistung mit moralischem Urteilsvermögen besser auszugleichen.
Darüber hinaus hat diese Studie auch umfangreiche Diskussionen über die ethischen Standards der künstlichen Intelligenz ausgelöst. Da die KI -Technologie in verschiedenen Bereichen zunehmend weit verbreitet ist, ist die Sicherstellung, dass diese Technologien in komplexen moralischen Situationen vernünftige Entscheidungen treffen können, zu einem dringenden Problem. Diese Forschung von Microsoft liefert empirische Belege für die Formulierung relevanter ethischer Standards und fördert die gesunde Entwicklung der künstlichen Intelligenzbranche.
Im Allgemeinen fordert diese Forschung von Microsoft nicht nur unser inhärentes Verständnis der Leistung großer Sprachmodelle in Frage, sondern bietet auch neue Ideen für die zukünftige Entwicklung künstlicher Intelligenz. Durch kontinuierliches Optimieren der moralischen Argumentationsfähigkeit des Modells wird erwartet, dass wir ein künstliches Intelligenzsystem entwickeln, das intelligenter und mehr den ethischen Standards des Menschen entspricht und mehr Beiträge zum Fortschritt der Gesellschaft leistet.