>Apa yang nyata lagi? AI memutarbalikkan kebenaran perang Timur Tengah
>Krisis kepercayaan semakin dalam, pemeriksa fakta kelelahan karena platform teknologi dibanjiri dengan informasi yang tidak benar
Bangkok, Suarathailand- “Apakah Netanyahu nyata atau AI?” sebuah judul berita di internet berteriak, menunjuk pada sebuah video yang konon menunjukkan perdana menteri Israel dengan enam jari.
Namun klip itu nyata.
Spekulasi meningkat di internet bahwa Netanyahu mungkin tewas atau terluka dalam serangan Iran dan bahwa Israel menutupinya dengan sosok pengganti yang dihasilkan oleh kecerdasan buatan.
“Terakhir kali saya periksa, manusia biasanya tidak memiliki 6 jari… AI memilikinya,” kata sebuah unggahan di X, yang mendapatkan hampir lima juta tayangan. “Apakah Netanyahu sudah tiada?”
Para peneliti forensik digital dengan cepat menjelaskan jari "tambahan": tipuan cahaya yang membuat sebagian telapak tangannya menyerupai jari tambahan.
Raksasa AI Anthropic mengatakan 'sedang menjajaki' investasi pusat data di Australia
Namun pesan itu sebagian besar tenggelam dalam kehebohan daring. Tidak terlalu penting juga bahwa generator visual AI canggih — yang sekarang mampu menghasilkan deepfake yang tampak sangat nyata dalam hitungan detik — sebagian besar telah menghapus kesalahan yang dulu menjadi ciri khas berupa jari tambahan.
Jadi bagaimana Anda membuktikan apa yang nyata itu nyata ketika garis antara realitas dan fabrikasi telah begitu kabur dalam kabut perang Timur Tengah?
Beberapa hari kemudian, Netanyahu memposting video lain — klip bukti keberadaannya dari sebuah kedai kopi. Dia mengangkat kedua tangannya seolah menantang para skeptis untuk menghitung jarinya.
Namun alih-alih meredam spekulasi, video tersebut memicu gelombang baru teori yang tidak berdasar.
"Lebih banyak AI," kata sebuah postingan viral di Threads, mempertanyakan mengapa cangkirnya tetap penuh setelah menyesap banyak.
Kecurigaan Kebohongan tetap berlanjut bahkan setelah Netanyahu mengunggah video ketiga, kali ini bersama duta besar AS untuk Israel, Mike Huckabee.
Beberapa pengamat daring memperbesar telinga Netanyahu, mengklaim bentuk dan ukurannya tidak sesuai dengan gambar-gambar sebelumnya.
'Sama saja dengan Desas-Desus'
Jaringan global AFP telah menghasilkan lebih dari 500 bantahan terhadap informasi palsu dalam berbagai bahasa sejak konflik dimulai — tingkat yang belum pernah terjadi sebelumnya dalam krisis seperti ini. Antara seperempat dan seperlima di antaranya menggunakan AI.
Invasi Rusia ke Ukraina, perang Israel-Gaza, dan konflik antara India dan Pakistan semuanya memicu gelombang konten yang dihasilkan AI.
Yang membedakan perang Timur Tengah adalah volume — dan realisme — gambar AI yang dihasilkan oleh alat-alat canggih yang murah dan mampu menghilangkan banyak tanda manipulasi lama, kata para peneliti.
Platform teknologi kini dipenuhi dengan apa yang secara luas disebut "sampah AI".
Hasilnya adalah krisis kepercayaan yang semakin dalam karena rekayasa AI yang sangat realistis bersaing untuk mendapatkan perhatian dengan — dan seringkali menenggelamkan — gambar-gambar otentik dan video.
“Saya pikir saat ini kita semua perlu mulai memperlakukan foto, video, dan audio dengan kedudukan yang sama seperti desas-desus,” kata Thomas Nowotny, yang memimpin kelompok penelitian AI di Universitas Sussex di Inggris, kepada AFP.
Masalah bagi Constance de Saint Laurent, seorang profesor di Universitas Maynooth Irlandia, “bukanlah orang-orang yang mempercayai” disinformasi, melainkan “mereka melihat berita nyata dan mereka tidak lagi mempercayainya.”
‘Konten berbahaya’
Volume berita palsu jauh melampaui kapasitas verifikasi pemeriksa fakta profesional.
Pekerjaan ini sering terasa seperti permainan pukul tikus. Klaim yang telah dibantah secara rutin muncul kembali di berbagai platform yang dipenuhi berita palsu, sebuah pola yang oleh beberapa peneliti disebut sebagai misinformasi “zombie”.
Algoritma memperkuat konten berdasarkan keterlibatan — dan keterlibatan sering kali didorong oleh sensasionalisme, kemarahan, dan misinformasi.
Platform media sosial “bertindak sebagai editor melalui apa yang mereka putuskan untuk ditampilkan kepada pengguna mereka, terutama melalui umpan mereka. “Dan sangat sering, itu termasuk konten berbahaya dan informasi yang salah,” kata Saint Laurent.
Insentif finansial semakin mempercepat masalah ini. Beberapa platform, termasuk X, memungkinkan kreator untuk mendapatkan pendapatan berdasarkan keterlibatan, mendorong para influencer untuk menyebarkan konten yang menyesatkan atau sepenuhnya dibuat-buat demi mendapatkan klik.
Menurut Institute for Strategic Dialogue (ISD) yang berbasis di London, jaringan akun X yang memposting konten AI tentang perang Timur Tengah telah mengumpulkan lebih dari satu miliar tayangan sejak konflik dimulai.
Dalam contoh viral lainnya, sebuah akun X memposting video AI yang tampaknya menunjukkan gedung pencakar langit Burj Khalifa di Dubai runtuh dalam kepulan debu.
“10 juta tayangan dan tidak ada Catatan Komunitas. Kami telah mengalahkan kalian,” tulis analis perang informasi Tal Hagin di X 20 jam setelah video itu diposting.
Pada saat Catatan Komunitas — sistem verifikasi berbasis crowdsourcing, yang efektivitasnya telah berulang kali dipertanyakan oleh para peneliti — ditambahkan ke postingan beberapa jam kemudian, video tersebut telah ditonton lebih dari 12 juta kali.
Konten sintetis terus berkembang di X bahkan setelah platform milik Elon Musk tersebut mengumumkan akan menghukum para kreator — menangguhkan mereka dari program bagi hasil selama 90 hari — jika mereka memposting video perang AI tanpa label.
‘Legofikasi’
Konten AI berbasis meme yang meremehkan konflik sambil menyebarkan informasi yang salah semakin menggeser realitas di platform digital, dalam apa yang disebut peneliti ISD sebagai “Legofikasi” propaganda perang.
Sebuah film parodi AI Iran berjudul “Lego Movie” menjadi viral pada minggu pertama perang, menuduh Presiden AS Donald Trump menyerang Teheran untuk mengalihkan perhatian dari perannya dalam skandal Jeffrey Epstein.
Video meme yang tampak nyata juga telah digunakan untuk menggambarkan kemenangan militer Iran fiktif dan bahkan Selat Hormuz yang strategis dibayangkan ulang sebagai gerbang tol kartun.
Trump sendiri telah memperingatkan bahwa AI telah menjadi “senjata disinformasi yang digunakan Iran dengan cukup baik.”
“Bangunan dan kapal yang terlihat terbakar sebenarnya tidak terbakar — itu BERITA PALSU, yang dihasilkan oleh AI,” tulisnya di Truth Social.
Namun, presiden AS telah sangat merangkul teknologi ini, membagikan gambar dan video yang dihasilkan AI untuk menggambarkan dirinya sebagai raja dan Superman, sementara menggambarkan lawan-lawannya sebagai penjahat atau bahan tertawaan.
Ia juga menggunakan meme AI untuk memicu teori konspirasi dan narasi palsu.
Sementara itu, operasi informasi terkoordinasi yang terkait dengan Rusia mengeksploitasi kekacauan daring, menyamar sebagai media terpercaya seperti BBC untuk menyebarkan kebohongan, menurut ISD.
Memicu Kekerasan
“Kami percaya platform teknologi saat ini tidak cukup membantu pengguna mengidentifikasi apakah konten tersebut dihasilkan AI atau asli,” kata Dewan Pengawas Meta, badan yang dibentuk oleh Facebook untuk meninjau keputusan moderasi konten, bulan lalu.
“Konten palsu dapat berbahaya dengan memicu lebih banyak kekerasan dan memicu konflik lebih lanjut,” tambahnya.
AFP bekerja dalam 26 bahasa dengan program pengecekan fakta Facebook, termasuk di Asia, Amerika Latin, dan Uni Eropa.
Meta mengakhiri program pengecekan fakta pihak ketiga di AS tahun lalu, dengan CEO Mark Zuckerberg mengatakan bahwa hal itu telah menyebabkan "terlalu banyak sensor" — sebuah klaim yang ditolak keras oleh para pendukung program tersebut.
Sebagai gantinya, Zuckerberg mengatakan platform Meta, Facebook dan Instagram, akan menggunakan model "Catatan Komunitas" — sebuah langkah yang menurut para kritikus dapat semakin melemahkan perlindungan terhadap misinformasi.
Dewan Pengawas Meta memperingatkan bahwa perluasan model di luar Amerika Serikat dapat menimbulkan "risiko hak asasi manusia yang signifikan dan berkontribusi pada kerugian nyata" bagi orang-orang yang hidup di bawah penindasan atau konflik.
'Dividen Pembohong'
Alat deteksi AI dimaksudkan untuk menembus kabut perang informasi. Sebaliknya, terkadang alat tersebut malah membuatnya semakin pekat.
Dalam kasus Netanyahu, para penganut teori konspirasi menunjuk pada alat deteksi AI yang secara keliru melabeli video kedai kopinya sebagai "96,9 persen dihasilkan AI." Alat-alat lain mencapai kesimpulan yang berlawanan.
Masalah ini meluas melampaui video. Media sosial dipenuhi dengan citra satelit palsu, peta panas, dan visual pseudo-forensik lainnya yang digunakan untuk menimbulkan keraguan pada bukti asli dari perang, kata para peneliti.
“Munculnya deepfake AI dan pengabaian rekaman asli adalah dua sisi dari koin yang sama,” kata Sofia Rubinson, dari lembaga pengawas misinformasi NewsGuard.
“Ketika semuanya bisa palsu, mudah untuk mempercayai bahwa apa pun itu palsu.”
Pengguna media sosial telah secara keliru menuduh organisasi media terkemuka seperti New York Times menerbitkan gambar konflik yang dihasilkan AI, termasuk salah satu yang menunjukkan kerumunan besar di Teheran merayakan Ayatollah Mojtaba Khamenei yang baru.
Mereka yang mendapat manfaat dari misinformasi dapat dengan mudah mengeksploitasi ini — sebuah fenomena yang disebut para peneliti sebagai “dividen pembohong,” di mana informasi yang asli tetapi tidak menyenangkan diabaikan sebagai hasil buatan AI.
“Jangan biarkan teknologi AI merusak kesediaan Anda untuk mempercayai apa pun yang Anda lihat dan dengar,” kata Hannah Covington, direktur senior konten pendidikan di organisasi nirlaba News Literacy Project.
“Itulah yang diinginkan oleh pihak-pihak yang tidak bertanggung jawab: agar orang-orang berpikir bahwa semuanya bisa dipalsukan, sehingga mereka tidak bisa mempercayai apa pun,” kata Covington kepada AFP.
Tanda-tanda pergeseran itu sudah terlihat, karena gambar palsu dari insiden nyata semakin mencemari lanskap informasi.
Setelah serangan mematikan di sebuah sekolah dasar di kota Minab pada 28 Februari, sebuah akun resmi Iran di X memposting foto yang menunjukkan ransel seorang anak yang berlumuran darah dan debu.
AFP menemukan bahwa gambar tersebut kemungkinan besar dihasilkan oleh AI. Tetapi hanya sedikit orang di internet yang tampak khawatir bahwa gambar palsu telah digunakan untuk menggambarkan kematian anak-anak sekolah yang sebenarnya.
“Kemungkinan diedit oleh AI, tetapi maknanya nyata,” tulis seorang pengguna Reddit. Bangkok Post




