Kecerdasan buatan tampaknya menjadi konsep baru yang ditanamkan dalam ingatan publik karena investasi selangit baru-baru ini dan dampaknya terhadap pasar kerja. Namun, AI sebagai ide dapat ditelusuri kembali ribuan tahun ke mitos dan legenda. Yaitu, dalam mitologi Yunani: Talos adalah robot perunggu raksasa yang berfungsi sebagai penjaga pulau Kreta. Tugasnya adalah membuat sirkuit harian di sekitar pulau dan bertahan melawan penjajah dengan melempar batu besar. Kekalahan Talos datang ketika Jason dan Argonauts menemukan kerentanan kritis – sumbat di kakinya – yang, ketika dilepas, memungkinkan ichor vitalnya terkuras, membuatnya tidak berdaya.
Mitos Talos menggarisbawahi pengaruh makhluk buatan pada tindakan manusia dengan mengilustrasikan bagaimana entitas tersebut dapat menggunakan kekuatan dan kontrol yang signifikan, serta bagaimana kerentanan mereka dapat dieksploitasi. Peran robot sebagai penjaga yang kuat dan kekalahannya yang akhirnya melalui satu kelemahan mencerminkan potensi dan risiko menciptakan sistem otonom yang dapat membentuk dan memengaruhi perilaku manusia.
AI telah ada sejak lama — teks prediktif dan filter spam adalah dua contohnya. Sistem sebelumnya sebagian besar statis, mengandalkan aturan yang telah ditentukan sebelumnya dan pembaruan manual. Sebaliknya, yang modern bisa regeneratif. Ini berarti ia dapat terus belajar dari data baru dan menyesuaikan modelnya dari waktu ke waktu, memungkinkan peningkatan dinamis dan kinerja yang lebih bernuansa. Hal ini membuka dunia peluang bagi berbagai pemangku kepentingan.
Meskipun AI dapat meningkatkan keterlibatan dan memberikan perspektif yang beragam, AI juga menimbulkan bahaya, termasuk propaganda digital, informasi yang salah, dan bias algoritmik. Pengaruhnya terhadap opini publik tidak dapat disangkal. Saya akan menggali lebih dalam kapasitasnya untuk mempengaruhi dan mempengaruhi perubahan.
Efek AI pada propaganda digital
Propaganda digital menggunakan platform digital untuk memanipulasi opini publik melalui pesan yang ditargetkan dan informasi yang menyesatkan. Ini melibatkan metode seperti menyebarkan konten palsu, membuat persona palsu dan menggunakan algoritme untuk menargetkan kelompok tertentu.
AI meningkatkan propaganda digital dengan menganalisis data untuk mengirimkan konten yang dipersonalisasi, memanipulasi hasil pencarian, dan mengotomatiskan penyebaran informasi yang salah. Selama pemilihan presiden Amerika Serikat 2016, bot dan akun palsu yang digerakkan oleh AI memperkuat narasi palsu dan konten yang memecah belah, yang memengaruhi opini publik dan hasil pemilu.
Deep fake yang dihasilkan AI juga berkontribusi pada propaganda digital. Misalnya, pada tahun 2022, video deep fake Presiden Ukraina Volodymyr Zelenskyy muncul di media sosial. Video itu menunjukkan dia menyerah dan merupakan cara untuk menurunkan moral perlawanan Ukraina. Ini menunjukkan potensi AI harus membuat konten yang menipu. Contoh yang lebih baru dan terkenal termasuk pemilihan presiden AS 2024, di mana gambar deep fake yang dihasilkan AI dari kandidat politik seperti Donald Trump dan Kamala Harris beredar luas. Para pendukung melihat foto-foto itu sebagai sindiran dan kebebasan berekspresi, sementara para ahli memperingatkan bahwa mereka masih dapat menyebabkan perpecahan dalam masyarakat dan penyebaran informasi palsu.
Banyak yang khawatir tentang kemungkinan pengaruh gambar yang digerakkan oleh AI terhadap wacana politik dan keseimbangan halus antara komunikasi etis dan kebebasan berbicara. AI telah mempermudah kampanye dan individu untuk memproduksi dan menyebarkan konten palsu tersebut dengan mudah.
Contoh-contoh ini menggambarkan bagaimana AI dapat meningkatkan skala dan presisi propaganda. Meskipun teknologi dapat meningkatkan komunikasi, penyalahgunaannya mengancam integritas informasi dan proses demokrasi. Pengawasan yang efektif dan deteksi yang lebih baik sangat penting untuk mengatasi masalah ini.
Pada catatan positif, AI dapat meningkatkan keterlibatan politik dan akses ke informasi. Alat berbasis AI memungkinkan komunikasi yang dipersonalisasi antara politisi dan konstituen, meningkatkan jangkauan dan partisipasi pemilih. Misalnya, algoritme membantu kampanye politik menyesuaikan pesan berdasarkan data pemilih, yang berpotensi meningkatkan keterlibatan. Ini juga meningkatkan akses informasi dengan menggabungkan dan mengkurasi konten dari berbagai sumber, membuat pengguna tetap mendapat informasi tentang perkembangan politik.
Sebaliknya, AI memiliki dampak negatif yang signifikan. Ini berkontribusi pada polarisasi dengan menciptakan ruang gema yang memperkuat keyakinan yang ada, membatasi paparan beragam perspektif dan memperdalam perpecahan masyarakat. Polarisasi ini dapat menghambat wacana politik yang konstruktif dan meningkatkan keberpihakan.
Masalah lain adalah erosi kepercayaan pada lembaga demokrasi. Bot dan deepfake yang digerakkan oleh AI menyebarkan informasi yang salah dan berita palsu, yang mendistorsi persepsi publik dan merusak kepercayaan pada media dan proses politik.
Skandal Cambridge Analytica dan manipulasi media sosial
Platform media sosial telah menjadi arena pengaruh, dengan algoritme yang sangat membentuk pengalaman pengguna dan opini publik. Bisnis dan gerakan telah melompat ke kereta musik dunia online. Kita sekarang melihat peran teknokrat meningkat dalam masyarakat karena anggota parlemen dilumpuhkan oleh informasi yang salah atau kurangnya kapasitas untuk mengambil tindakan.
Skandal Cambridge Analytica mencontohkan bagaimana manipulasi AI dapat menyebabkan keraguan tentang integritas pemilu dan transparansi pemerintah. Cambridge Analytica, sebuah perusahaan konsultan politik, mengeksploitasi data Facebook untuk membuat profil psikografis jutaan pengguna tanpa persetujuan mereka. Dengan memanfaatkan AI untuk menganalisis profil ini, perusahaan menyesuaikan iklan dan pesan politik untuk memanipulasi perilaku pemilih selama pemilihan presiden AS 2016 dan referendum Brexit.
Kasus ini mencontohkan bagaimana analisis data berbasis AI dapat digunakan untuk mengeksploitasi informasi pribadi untuk keuntungan politik, memperburuk efek ruang gema dengan menyampaikan pesan yang sangat personal dan persuasif yang memperkuat bias yang ada. Algoritme memfasilitasi manipulasi yang ditargetkan ini, sehingga lebih mudah untuk memengaruhi opini publik dalam skala besar.
Skandal ini kemungkinan merupakan contoh paling terkenal dari manipulasi iklan bertarget yang digunakan oleh perusahaan swasta. Ini telah menyebabkan penyok besar dalam demokrasi Barat. Meskipun pengetahuan yang tersedia untuk umum tentang hal yang sama, protes publik dalam menanggapinya buruk. Hal ini dapat disebabkan oleh berbagai faktor, seperti praktik yang tidak dipandang sebagai ancaman. Penerimaan luas terhadap pelanggaran yang mengerikan seperti itu mengungkapkan desensitisasi yang mengganggu terhadap manipulasi digital.
Bot berbasis AI dan akun palsu dapat dengan mudah menyebarkan informasi yang salah. Mereka dapat menghasilkan dan menyebarkan narasi palsu dengan cepat, memperkuat konten yang menyesatkan di seluruh platform media sosial. Misinformasi menyebar lebih cepat dan lebih luas daripada informasi faktual, sebagian karena sistem otomatis ini.
Ke depan, AI regeneratif dan daya komputasi modern menghadirkan peluang menarik dan risiko yang cukup besar. Kemampuan AI regeneratif untuk terus belajar dan beradaptasi dapat mengarah pada sistem yang lebih canggih yang meningkatkan pengalaman pengguna. Algoritme canggih dapat meningkatkan kurasi konten, mengurangi efek ruang gema dengan memperkenalkan perspektif yang lebih luas dan mendorong diskusi yang lebih seimbang. Misalnya, AI dapat membantu menyaring konten ekstrem sambil mempromosikan dialog yang konstruktif, sehingga meningkatkan kualitas informasi dan interaksi di media sosial.
Namun, kemampuan yang sama ini juga dapat digunakan untuk memanipulasi opini publik secara lebih efektif. AI regeneratif dapat dimanfaatkan untuk menciptakan misinformasi yang lebih persuasif dan ruang gema yang lebih efektif, semakin mempolarisasi wacana publik dan mengeksploitasi kerentanan individu. Kapasitas untuk misinformasi yang cepat dan adaptif dapat menyebabkan konsekuensi yang lebih parah bagi proses demokrasi dan kepercayaan publik.
Mengatur AI untuk menuai manfaatnya dan mengurangi masalahnya
Meskipun manfaat potensial AI modern sangat besar, kita harus mengatasi risiko melalui pedoman etika, transparansi, dan regulasi yang kuat. Pemerintah harus menegakkan transparansi dan akuntabilitas dalam sistem AI, mewajibkan pengungkapan yang jelas tentang konten berbasis AI, dan memerangi informasi yang salah. Penting juga untuk mempromosikan literasi digital dan pemikiran kritis. Memastikan bahwa teknologi AI digunakan secara bertanggung jawab dan dengan cara yang mendukung, bukan merusak, nilai-nilai demokrasi akan sangat penting saat kita menavigasi masa depan pengaruh digital.
Menarik paralel dengan mitos Talos, sistem AI memiliki kekuatan besar untuk menjaga dan memengaruhi tindakan manusia. Sama seperti robot perunggu yang perkasa dijatuhkan oleh kerentanannya, AI modern juga memiliki kelemahan: bias algoritmik, potensi penyalahgunaan, dan kurangnya transparansi. Saat kita maju, sangat penting untuk mengatasi kerentanan ini. Keseimbangan yang bijaksana antara inovasi dan perlindungan etis dapat memungkinkan kita memanfaatkan manfaat AI sambil melindungi nilai-nilai inti demokrasi.
Seperti yang pernah dikatakan oleh filsuf dan negarawan India S. Radhakrishnan, “Produk akhir dari pendidikan harus menjadi manusia kreatif yang bebas, yang dapat berjuang melawan keadaan historis dan kesulitan alam.” Wawasan ini menekankan pentingnya menggunakan AI untuk memberdayakan individu dan masyarakat secara positif daripada membiarkannya menjadi alat untuk manipulasi dan kontrol. Berdasarkan visi Dr. Radhakrishnan, kita harus memanfaatkan AI sebagai alat untuk memberdayakan individu untuk berpikir kritis, menumbuhkan ketahanan, dan menavigasi tantangan era kita dengan integritas—memastikan teknologi mengangkat daripada merusak agensi manusia.
(Lee Thompson-Kolar mengedit bagian ini.)
Pandangan yang diungkapkan dalam artikel ini adalah milik penulis sendiri dan tidak selalu mencerminkan kebijakan editorial Fair Observer.