Situs web resmi www.binance.com/zh-cn :Masukkan situs web resmi ☜☜
Aplikasi: ☞☞ Unduh Aplikasi Resmi☜☜
Penelitian terbaru dari Center for Digital News di Columbia News Review mengungkapkan fenomena yang mengejutkan: popularitas alat pencarian AI memberikan informasi yang salah atau menyesatkan saat menjawab pertanyaan. Penemuan ini tidak hanya mengkhawatirkan, tetapi juga secara langsung melemahkan kepercayaan publik pada laporan berita, sementara juga mengekspos penerbit untuk menggandakan kerugian dalam lalu lintas dan pendapatan.

Para peneliti menguji delapan chatbots AI generatif termasuk chatgpt, kebingungan, Gemini dan Grok, meminta mereka untuk mengidentifikasi kutipan dari 200 artikel berita terbaru. Hasilnya menunjukkan bahwa lebih dari 60% jawabannya salah. Chatbots ini sering membuat judul, tidak mengutip artikel, atau mengutip konten yang tidak sah. Bahkan jika mereka dengan benar menunjukkan penerbit, tautan sering menunjukkan URL yang tidak valid, versi cetak ulang, atau halaman yang tidak terkait dengan konten.
Yang mengecewakan, chatbots ini jarang mengungkapkan ketidakpastian, tetapi sebaliknya memberikan jawaban yang salah dengan kepercayaan diri yang tidak pantas. Misalnya, ChatGPT menyediakan 134 pesan kesalahan dalam 200 pertanyaan, tetapi telah menyatakan kecurigaan hanya dalam 15 kali. Bahkan versi yang dibayar dari kebingungan Pro dan GROK3 tidak memuaskan, dengan jumlah jawaban yang salah lebih tinggi, meskipun mereka dihargai masing -masing $ 20 dan $ 40 per bulan.
Dalam hal kutipan konten, beberapa chatbots gagal mengikuti upaya pembatasan penerbit, dan lima chatbots bahkan mengabaikan standar protokol eksklusi bot yang diterima secara luas. Kebingungan pernah mengutip artikel dengan benar dari National Geographic ketika penerbit membatasi crawler mereka. Sementara itu, ChatGPT membacakan artikel USA Today dari konten paywall melalui berita Yahoo yang tidak sah.
Selain itu, banyak chatbots mengarahkan pengguna untuk mencetak ulang artikel pada platform seperti AOL atau Yahoo, daripada sumber aslinya, bahkan jika perjanjian otorisasi telah dicapai dengan perusahaan AI. Misalnya, keberanian Pro mengutip versi cetak ulang dari forum Texas tetapi gagal memberikan tanda tangan yang jatuh tempo. Grok3 dan Gemini sering menemukan URL, dan 154 dari 200 Jawaban GROK3 tautan ke halaman kesalahan.
Studi ini menyoroti krisis yang berkembang yang dihadapi organisasi berita. Semakin banyak orang Amerika menggunakan alat AI sebagai sumber informasi mereka, tetapi tidak seperti Google, chatbots tidak mengarahkan lalu lintas ke situs web, tetapi sebaliknya merangkum konten tanpa menautkan kembali, menyebabkan penerbit kehilangan pendapatan iklan. Danielle Coffey dari The News Media Alliance memperingatkan bahwa tanpa kendali atas crawler, penerbit tidak akan dapat "membuat konten yang berharga atau membayar gaji jurnalis."
Setelah menghubungi Openai dan Microsoft, tim peneliti mempertahankan pendekatan mereka tetapi tidak menanggapi temuan penelitian tertentu. Openai mengatakan "menghormati preferensi penerbit" dan membantu pengguna "menemukan konten berkualitas", sementara Microsoft mengklaim itu mengikuti protokol "robot.txt". Para peneliti menekankan bahwa praktik kutipan yang salah adalah masalah sistematis, bukan alat individu. Mereka meminta perusahaan AI untuk meningkatkan transparansi, akurasi, dan rasa hormat terhadap hak penerbit.
Poin -Poin Kunci:
Studi ini menemukan bahwa tingkat kesalahan jawaban chatbots AI melebihi 60%, secara serius mempengaruhi kredibilitas berita.
Beberapa chatbots mengabaikan pembatasan penerbit dan mengutip konten yang tidak sah dan tautan yang salah.
Organisasi berita menghadapi krisis lalu lintas dan pendapatan ganda, dan alat AI secara bertahap menggantikan mesin pencari tradisional.