Vor kurzem hat Patrick Soon-Shiong, ein Milliardär der Los Angeles Times, einen Brief an die Leser veröffentlicht, in dem die Zeitung künstliche Intelligenz-Technologie verwenden wird, um einigen Artikeln ein "Sound" -Label hinzuzufügen. Diese Initiative zielt darauf ab, den Lesern dabei zu helfen, die Position und Perspektive des Artikels mit technischen Mitteln klarer zu identifizieren. In dem Brief betonte Matsuo, dass dieses Etikett nicht nur für traditionelle Meinungsspalten gilt, sondern auch Nachrichten, Kritik und Bewertungen abdeckt. Er glaubt, dass die Medien durch eine vielfältige Perspektive ihre journalistische Mission besser erfüllen und den Lesern helfen können, die Probleme des Landes besser zu verstehen.

Diese Änderung hat jedoch keine weit verbreitete Unterstützung von Mitgliedern der Los Angeles Times Union erhalten. Der stellvertretende Vorsitzende der Union, Matt Hamilton, sagte, dass Gewerkschaften die Unterstützung von Initiativen zur Unterscheidung zwischen Nachrichtenberichten und Kommentarartikeln unterstützen, sie jedoch der Analyse der KI -Generation vorbehalten sind, die vom Redaktionsteam nicht überprüft wurde. Hamilton ist der Ansicht, dass die mangelnde künstliche Überwachung von Inhalten von AI-generierten Inhalten die Glaubwürdigkeit der Medien schwächen und sogar irreführend verursachen kann.
Tatsächlich traten einige Probleme kurz nach der Durchführung dieser Änderung auf. Zum Beispiel stellte der Guardian fest, dass das KI-Werkzeug am Ende eines Meinungsstücks über die Gefahren der nicht regulierten Verwendung von AI in historischen Dokumentarfilmen behauptet, dass der Artikel "im Allgemeinen mit der linksübergreifenden Sichtweise übereinstimmt" und schlägt vor, dass "KI demokratisieren" historische Erzählungen ". In einem Bericht über kalifornische Städte, die Mitglieder des KLAN in den 1920er Jahren als Stadtrat wählten, behauptete eine A-generierte Sichtweise, dass lokale historische Aufzeichnungen den Klan manchmal als "Produkt der" weißen protestantischen Kultur "beschreiben, die auf soziale Veränderungen reagierte" und nicht als eindeutig hassorientiertes Bewegung. Obwohl diese Aussage den historischen Hintergrund bis zu einem gewissen Grad widerspiegelt, erscheint ihre Präsentation ungeschickt und hat einen klaren Widerstand gegen das Thema des Artikels.
Im Idealfall sollte die Verwendung von KI -Tools mit einer bestimmten Bearbeitungsaufsicht ergänzt werden, um ähnliche Probleme zu vermeiden. Der Mangel an beaufsichtigten AI-generierten Inhalten kann zu verschiedenen Fehlern führen, z. Diese Fälle zeigen, dass trotz des enormen Potenzials der KI -Technologie im Bereich der Nachrichten noch mit Vorsicht eingesetzt werden muss, insbesondere wenn es um empfindliche Themen geht.
Es ist erwähnenswert, dass die Los Angeles Times nicht die einzige Medieninstitution ist, die KI -Technologie im Nachrichtenbetrieb anwendet. Bloomberg, heute, Wall Street Journal, die New York Times und die Washington Post nutzen diese Technologie auch auf unterschiedliche Weise. Diese Agenturen verwenden jedoch häufig KI, um die Nachrichtenproduktion zu unterstützen, anstatt direkt redaktionelle Bewertungen zu generieren. Im Gegensatz dazu scheinen die Versuche der Los Angeles Times radikaler und haben mehr Kontroversen verursacht.
Im Allgemeinen ist die Initiative der Los Angeles Times zur Einführung der KI -Technologie, um Artikeln "Sprach" -Tags hinzuzufügen und analytische Erkenntnisse zu generieren, aber es ist auch mit vielen Herausforderungen konfrontiert. Die Bedenken der Gewerkschaftsmitglieder hinsichtlich von AI-generierten Inhalten und verschiedenen Problemen, die in tatsächlichen Anwendungen auftreten, zeigen, dass diese Technologie noch weiter verbessert werden muss. In Zukunft ist das Finden eines Gleichgewichts zwischen Technologieanwendung und redaktioneller Aufsicht ein zentrales Thema, das die Los Angeles Times und andere Medienorganisationen lösen müssen.