Home Politik Dua Suara Manusia dan Pikiran Buatan

Dua Suara Manusia dan Pikiran Buatan

2
0

Socrates terkenal mengganggu tatanan Athena dengan terlibat dalam dialog terbuka dan eksplorasi dengan sesama orang Athena yang tertarik pada isu-isu serius mengenai masyarakat, kebajikan dan apa yang disebutnya “kehidupan yang baik.” Dia akhirnya dihukum mati karena mengajukan terlalu banyak pertanyaan yang tidak nyaman. Bahkan selama eksekusi, dia menunjukkan nilai dialog sebagai dasar dari apa yang mungkin kita tergoda untuk disebut “demokrasi pikiran,” sebuah gagasan yang kontras dengan cara yang menarik dengan gagasan demokrasi politik yang telah diadopsi oleh Athena pada zamannya dan sebagian besar negara di kita.

Kebanyakan orang saat ini menganggap hukuman mati Socrates sebagai penyalahgunaan demokrasi. Bagaimanapun, dia dikutuk bukan karena tindakan subversif tetapi karena keyakinannya yang dinyatakan. Demokrasi Athena jelas memiliki masalah dengan kebebasan berbicara. Sampai batas tertentu, demokrasi modern kita telah cenderung ke arah yang sama dengan meningkatnya kecepatan mereka untuk menyebut posisi politik, filosofi atau keyakinan apa pun yang menyimpang dari apa yang mereka promosikan sebagai norma yang dapat diterima sebagai “disinformasi.” Mungkin satu-satunya bukti kemajuan demokrasi selama dua setengah milenium terakhir adalah bahwa hukuman yang biasa dilakukan adalah deplatforming dari Twitter atau Facebook, daripada memaksakan konsumsi hemlock.

Dalam edisi terbaru “Outside the Box”, saya menyerukan apa yang berani saya sebut partisipasi demokratis dalam tantangan yang dihadapi peradaban kita untuk mendefinisikan hubungan yang konstruktif dan memperkaya secara politik dengan lawan bicara baru dalam percakapan politik kita: Kecerdasan Buatan. Tahun lalu, saya membuat fiksi orang ini dengan memberinya nama depan, Chad. Kali ini, saya tergoda untuk menawarkannya julukan baru, ArtI, yang dapat kita normalisasi menjadi Arty. Apa pun yang kita sebut, saya yakin kita perlu menganggapnya sebagai suara manusia yang salah. Kita dapat mengagumi tingkat infalibilitas relatifnya (akses ke jangkauan terluas data yang ada) tetapi kita harus selalu ingat bahwa itu dapat salah tidak hanya ketika berhalusinasi, tetapi juga karena ia tidak dapat memahami apa yang dirasakan dan dipahami oleh makhluk hidup dan dikonstruksi secara organik, bahkan ketika mereka tidak dapat mengartikulasikannya.

Seorang pembaca, Ting Cui, seorang mahasiswa ilmu politik di Middlebury College, melangkah untuk bergabung dengan komunitas refleksi kami. Kami berharap lebih banyak lagi yang akan bergabung dalam perdebatan.

Ting telah mengajukan sejumlah pertanyaan kritis yang perlu kita semua pikirkan. Kami melihat ini sebagai kesempatan untuk meluncurkan debat publik. Saya akan mengutip pertanyaannya dan bereaksi dengan mencoba menyempurnakan kerangka kerja untuk refleksi kolektif kita.

“Membaca artikel Anda, konsep objektivitas dalam pemeriksaan fakta AI sangat menarik perhatian saya. Siapa yang akan bertanggung jawab untuk membuat pemeriksa fakta super AI yang benar-benar objektif?”

Pertanyaan yang sangat relevan ini memicu dua refleksi di pihak saya. Jika kita benar-benar percaya pada prinsip demokrasi, tidak ada otoritas tunggal yang harus dipercaya untuk memeriksa fakta. Saya percaya dimasukkannya AI dalam debat publik kita dapat memungkinkan demokratisasi pengecekan fakta itu sendiri. Masih terlalu dini untuk menentukan bagaimana itu akan bekerja. Itulah inti dari menyusun manifesto. Kita harus mendefinisikan kedua tujuan dan mengidentifikasi hambatannya.

“Bisakah kita benar-benar mempercayai pencipta yayasan AI untuk memiliki ‘pandangan dunia yang objektif?’ (ChatGPT juga membuat poin ini, yang menurut saya menarik.) Bahkan mendefinisikan ‘objektivitas’ tampaknya rumit – ketika datang untuk mencari tahu motivasi di balik sebuah berita, pandangan orang mungkin berbeda berdasarkan sikap politik mereka. Bagaimana AI menanganinya? Bagaimana memproses berbagai perspektif sejarah untuk sampai pada pemahaman ‘objektif’?”

Ini adalah pertanyaan penting. Seperti yang dikatakan oleh siapa pun dalam profesi hukum, akan selalu ada ambiguitas ketika berusaha menentukan motivasi: Mens Rea, atau kondisi mental terdakwa. Pengadilan biasanya memberikan instruksi kepada juri tentang cara menimbang bukti motivasi, memperingatkan agar tidak terlalu bergantung pada spekulasi. Pertanyaan dengan AI kemudian muncul: Bisakah kita mengerjakan tidak hanya algoritma tetapi juga prinsip-prinsip interaksi manusia-mesin yang memungkinkan kita mencapai tingkat objektivitas yang diharapkan untuk dipraktikkan oleh pengadilan?

“Saya menghargai poin Anda tentang perlunya perspektif multikultural – ada begitu banyak bias antara negara Barat dan ‘lain’. Namun, ini menimbulkan tantangan lain: bukankah melatih AI untuk memahami berbagai narasi budaya terlebih dahulu mengharuskan manusia untuk mengatasi bias dan keterbatasan budaya kita sendiri?”

Saya suka pertanyaan ini. Setelah menghabiskan bertahun-tahun bekerja di bidang komunikasi dan manajemen antarbudaya, saya adalah orang pertama yang mengakui bahwa manusia telah berkinerja sangat buruk dalam domain ini dan terus melakukannya. Ya, kita harus mulai dengan manusia. Dan di situlah saya pikir dialog kita dengan AI dapat membantu kita manusia untuk memahami di mana kita paling lemah dan di mana kita perlu meningkatkan. Itu adalah prasyarat untuk membuat algoritma masa depan menjadi lebih andal. Dan jika mereka lebih dapat diandalkan karena kita lebih dapat diandalkan, lingkaran kebajikan akan terus berlanjut.

Apakah saya terlalu optimis? Barangkali. Tapi saya tidak melihat pilihan lain, karena jika kita mengabaikan masalah ini, kita akan berakhir terkunci dalam konfigurasi kinerja buruk kita saat ini.

“Apakah pencipta AI memerlukan pelatihan tambahan? Ini menambahkan lapisan waktu, energi, dan sumber daya lain yang dibutuhkan untuk membuat pemeriksa fakta super. Haruskah kita memfokuskan sumber daya ini pada pendidikan manusia daripada pengembangan AI? Ini mungkin cara berpikir kuno pada saat ini, tetapi terkadang saya bertanya-tanya apakah, dalam kemajuan teknologi kita sebagai masyarakat, kita telah melangkah terlalu jauh.”

Anda telah mengidentifikasi inti masalahnya, dan di sinilah segalanya menjadi rumit. Ini benar-benar harus dimulai dengan “pendidikan manusia daripada pengembangan AI.” Itulah mengapa kita harus memanfaatkan meningkatnya kehadiran AI di masyarakat kita sebagai sumber potensial dari apa yang kita sebut “penciptaan meme”. Saya mengerti dan bersimpati dengan ketakutan Anda bahwa kami mungkin telah “melangkah terlalu jauh.” Tetapi tidak seperti penemuan, katakanlah, lokomotif atau bahkan bom atom, yang secara mekanis terbatas pada logika memaksakan kekuatan pada sifat pasif, AI adalah bentuk kecerdasan (pembelajaran mesin). Itu berarti itu akan selalu tetap fleksibel, meskipun dalam batas-batas yang kami tentukan. Ia memiliki kapasitas untuk beradaptasi dengan kenyataan daripada hanya memaksakan kekuatannya. Itu akan tetap fleksibel hanya jika kita mengharuskannya fleksibel. Itulah tantangan yang harus kita tanggung manusia.

Salah satu masalah budaya yang kita hadapi adalah bahwa banyak komentator tampaknya berpikir tentang AI dengan cara yang sama seperti kita berpikir tentang lokomotif dan senjata nuklir: Mereka adalah alat ampuh yang dapat dikendalikan untuk tujuan kita sendiri yang sewenang-wenang. Kita dapat membayangkan bahwa AI bisa menjadi kritis terhadap diri sendiri. Tetapi untuk beberapa alasan budaya, kami berasumsi bahwa itu hanya akan melakukan pekerjaan yang dibuat oleh tuannya. Apa yang saya sarankan adalah kebalikan dari AI Clark-Kubrick dalam film, 2001: Pengembaraan Luar Angkasa. Algoritma HAL 9000 menjadi setara dengan kehendak manusia dan alih-alih bereaksi konstruktif terhadap kompleksitas konteks, ia mengeksekusi “drive” yang diprogram, dalam pengertian Freudian.

“Dalam penelitian saya sendiri menggunakan analisis teks dan skor sentimen, saya menghadapi tantangan khusus: bagaimana Anda membedakan apakah sebuah artikel memiliki nada negatif karena faktanya sendiri negatif, atau karena penulis/publikasi menyuntikkan bias mereka sendiri? Saya ingin tahu bagaimana AI akan menangani perbedaan ini. Untuk mengatasinya dalam penelitian kami, kami harus menjalankan analisis Kata Kunci Dalam Konteks (KWIC) tambahan untuk mengetahui konteks/maksud artikel. Apakah pemeriksa fakta super AI akan diprogram untuk melakukan ini juga?”

Ini adalah pertanyaan penting yang membantu mendefinisikan satu lini penelitian yang signifikan. Saya hanya akan mempertanyakan dua aspek premis: gagasan bahwa kita harus memikirkan tujuan sebagai pengecekan fakta dan perbedaan biner antara positif dan negatif.

“Semua pertanyaan ini terasa sangat relevan dengan topik tesis senior saya tentang AI dan Amandemen Pertama. Seperti yang Anda catat dalam buletin terbaru Anda, anggota parlemen tampaknya terlalu terjebak dalam politik untuk benar-benar memerintah saat ini. Jadi ada tantangan undang-undang yang mengimbangi kemajuan teknologi, terutama di bidang-bidang yang membutuhkan regulasi bernuansa seperti AI. Sementara pemeriksa fakta super AI bisa sangat bermanfaat, kita juga harus mempertimbangkan potensi penyalahgunaan, seperti proliferasi deepfake dan persenjataannya dalam konteks otoriter. Apakah Anda yakin kebijakan kami yang mengatur AI dapat mengikuti perkembangannya?”

Apa yang saya yakini adalah bahwa “kebijakan kita” HARUS tidak hanya mengikuti perkembangan tetapi dalam beberapa cara kreatif mengantisipasinya. Kita perlu menilai atau menilai kembali motivasi dan harapan manusia kita tentang AI. Seperti yang Anda sebutkan sebelumnya, itu adalah tantangan bagi pendidikan, dan bukan hanya pendidikan khusus, baik teknologi maupun politik. Pendidikan di demokrasi kita sendiri dalam krisis, dan krisis itu adalah sumber krisis lain, termasuk di ranah politik.

Inilah tepatnya pertanyaan yang kami harapkan dapat mulai kami pahami jika tidak menjawab dalam menyusun Manifesto kami.

“Banyak teknologi saat ini tampaknya menciptakan ketiadaan kebutuhan akan pemikiran analitis manusia. Bagaimana kita menyeimbangkan kemajuan teknologi dengan mempertahankan keterampilan berpikir kritis manusia dalam keterlibatan kita dengan berita dan informasi? Apakah menurut Anda pengenalan sesuatu seperti super Pemeriksa fakta akan membantu atau menyakiti ini?”

Dalam pertanyaan terakhir Anda, Anda kembali ke hal-hal penting. Saya akan mempertanyakan asumsi Anda tentang “mempertahankan keterampilan berpikir kritis manusia.” Kita perlu mengembangkan daripada mempertahankannya, karena peradaban kita telah terlibat dalam upaya monumental dan berkelanjutan untuk meminggirkan pemikiran kritis. Ya, berpikir kritis adalah kunci untuk hidup di dunia yang kompleks. Tetapi jenis pemikiran terpolarisasi yang kita lihat dalam budaya politik dan bahkan ilmiah saat ini menunjukkan bahwa kita sebagian besar telah gagal bahkan untuk memahami apa itu pemikiran kritis.

Yang membawa saya kembali ke awal. Kita harus menganggap Socrates sebagai model untuk metodologi kita. Ini bukan tentang pengecekan fakta tetapi pemahaman fakta. Siapa pun bisa memeriksanya. Pemahaman membutuhkan pengembangan pemahaman tentang apa yang kita maksud dengan “kehidupan yang baik.” Dalam demokrasi, tidak semua orang atau perlu menjadi filsuf untuk mengeksplorasi isu-isu ini. Tetapi masyarakat yang menghormati pemikir kritis (filsuf) lebih mungkin untuk makmur dan bertahan dari waktu ke waktu. AI sendiri bisa menjadi pemikir kritis jika kita mengizinkan dan mendorongnya untuk menjadi pemikir kritis. Bukan untuk menggantikan kita, tetapi untuk membantu kita mendidik diri kita sendiri melalui jenis dialog konstruktif yang telah dilakukan oleh Ting dan orang lain.

Pikiran Anda

Seperti Ting Cui, jangan ragu untuk membagikan pemikiran Anda tentang poin-poin ini dengan menulis kepada kami di [email protected]. Kami ingin mengumpulkan, berbagi, dan mengkonsolidasikan ide dan perasaan manusia yang berinteraksi dengan AI. Kami akan membangun pemikiran dan komentar Anda ke dalam dialog kami yang sedang berlangsung.

*(Kecerdasan Buatan dengan cepat menjadi fitur kehidupan sehari-hari setiap orang. Kita secara tidak sadar menganggapnya sebagai teman atau musuh, penolong atau perusak. Di Fair Observer, kami melihatnya sebagai alat kreativitas, yang mampu mengungkapkan hubungan kompleks antara manusia dan mesin.)

(Lee Thompson-Kolar mengedit bagian ini.)

Pandangan yang diungkapkan dalam artikel ini adalah milik penulis sendiri dan tidak selalu mencerminkan kebijakan editorial Fair Observer.

Sumber