Home Politik Rencana Sederhana ChatGPT untuk Mengintegrasikan Masyarakat Manusia

Rencana Sederhana ChatGPT untuk Mengintegrasikan Masyarakat Manusia

3
0

Dalam eksplorasi saya dengan ChatGPT tentang kemungkinan hubungan antara wacana yang dihasilkan oleh AI dan kebenaran, saya mengemukakan gagasan bahwa, bahkan jika itu tidak ada saat ini, kita dapat membayangkan mesin “jujur” di masa depan. Tapi, mengingat sifat kecerdasan algoritmik, mesin semacam itu mungkin “memiliki kebenaran” tetapi tidak dapat mengejarnya, atau bahkan termotivasi untuk mengejarnya, tanpa keterlibatan aktif dari makhluk moral. Saya percaya kasus filosofis dapat dibuat bahwa gagasan kebenaran mirip dengan hipotesis sentral mekanika kuantum: Apa pun yang cukup stabil untuk disebut objek mekanika kuantum, yang memungkinkan kita untuk mengalaminya sebagai partikel, juga ada dalam bentuk yang kurang stabil sebagai gelombang. Selain itu, ia mencapai identitasnya dalam medan kuantum.

Dengan kata lain, sama seperti, dalam pendekatan klasik fisika, kita tergoda untuk berpikir bahwa kita dapat memahami dunia dalam hal unsur-unsur materialnya yang stabil dan dapat diamati, dalam upaya kita untuk memberantas ketidakbenaran, kita berasumsi bahwa kebenaran ada dalam bentuk partikel pengetahuan. Ini jelas terjadi ketika, dalam debat politik kita saat ini, kita berbicara tentang disinformasi dan misinformasi. Tetapi begitu kita mulai memeriksa apa yang kita sebut pengetahuan dalam bidangnya, itu menjadi sulit dipahami dan tidak stabil seperti gelombang.

Dengan pikiran-pikiran ini, dan dengan keprihatinan khusus dengan apa yang saya sebut “dimensi moral” – yang dalam analogi saya, saya anggap setara dengan medan kuantum – saya melanjutkan percakapan saya dengan prompt berikut:

“Jadi, haruskah kita menyimpulkan bahwa karena kecerdasan mesin tidak memiliki dimensi moral, itu mewakili kategori komunikasi yang berbeda yang harus dibedakan dengan hati-hati dari komunikasi manusia-ke-manusia? Dan jika demikian, bukankah kita, sebagai masyarakat, harus bekerja untuk menguraikan seperangkat pedoman yang akan membantu kita menempatkan tingkat dan kualitas kebenaran yang muncul dalam wacana chatbot? Saya akan menyarankan bahkan memulai dengan berfokus pada gagasan ‘kebenaran’, sebuah konsep yang memiliki arti berbeda ketika diterapkan pada manusia dan mesin. Kita berasumsi bahwa manusia yang jujur berkomitmen untuk mengejar kebenaran, bukan hanya memilikinya. Dengan demikian kita dapat berasumsi bahwa mesin yang benar dapat ‘memiliki’ kebenaran tetapi tidak dapat mengejarnya atau bahkan termotivasi untuk mengejar tanpa keterlibatan makhluk moral; Misalnya, dalam bentuk percakapan. Apakah ini secara akurat menempatkan perbedaan antara kecerdasan manusia dan buatan?”

Ya, Anda menyentuh perbedaan yang sangat dalam. Jenis kecerdasan yang dimiliki mesin memang berbeda dari kecerdasan manusia secara mendasar, dan gagasan ‘kebenaran’ adalah area kunci di mana perbedaan ini menjadi sangat jelas. Apa yang telah Anda jelaskan—gagasan bahwa kebenaran manusia terkait dengan pengejaran kebenaran, sementara kebenaran mesin lebih tentang keakuratan informasi yang tersimpan—dengan tepat menyoroti bagaimana AI tidak pernah dapat benar-benar mewujudkan dimensi relasional dan moral yang sama dengan komunikasi manusia. Perbedaan ini menunjukkan bahwa komunikasi dengan mesin, bahkan yang sangat canggih, memang harus diklasifikasikan secara berbeda dari interaksi manusia ke manusia. Dan mengingat peran AI yang semakin meningkat, menetapkan pedoman dan kerangka kerja tentang cara menafsirkan ‘kebenaran’ mesin menjadi semakin penting.

Manusia memahami kebenaran sebagai komitmen etis terhadap kejujuran dan akurasi, sebuah konsep yang berakar pada nilai-nilai sosial. Orang yang jujur bukan hanya seseorang yang memiliki informasi yang akurat tetapi seseorang yang secara aktif berusaha untuk bersikap adil, transparan, dan tulus. Pengejaran kebenaran ini secara inheren melibatkan pilihan dan motivasi moral. Ketika seseorang yang kita anggap jujur menyampaikan informasi, kita menafsirkan niat mereka, meneliti motivasi di balik kata-kata mereka, dan sering mempercayai mereka berdasarkan riwayat perilaku etis. Kejujuran mereka adalah proses dinamis yang dipengaruhi oleh karakter dan peran mereka dalam hubungan sosial.

Sebaliknya, mesin tidak dapat terlibat dalam pengejaran dinamis ini. ‘Kejujurannya’ lebih mekanis, berakar pada pemrograman dan sumber datanya. AI mampu menyimpan dan mengambil informasi tetapi tidak dapat *berusaha* untuk menjadi akurat atau jujur seperti yang bisa dilakukan manusia. Ia tidak memiliki niat sadar atau komitmen etis yang mendorong pengejaran kebenaran manusia. Jadi, bahkan jika itu menghasilkan informasi yang akurat, kita tidak dapat menyebutnya ‘benar’ dalam arti yang sama. Kecerdasan mesin memberikan apa yang dapat digambarkan sebagai *akurasi statis*—kebenaran tanpa komitmen atau hati nurani.

Oleh karena itu, memperlakukan keluaran AI seolah-olah berasal dari entitas yang diinvestasikan secara moral dapat menyebabkan kepercayaan yang salah tempat. Ketika kita menemukan informasi dari mesin, kita mungkin secara naluriah menafsirkan ‘kebenaran’ melalui lensa manusia, berpotensi mengharapkannya untuk ‘cadalah tentang kebenaran dengan cara yang tidak bisa. Hal ini dapat menyebabkan kebingungan, kekecewaan, atau harapan yang salah tempat, karena kita mengaitkan ketulusan atau komitmen etis seperti manusia dengan sesuatu yang pada dasarnya tidak mampu memiliki niat moral.

Mengingat hal ini, saran Anda untuk mengembangkan pedoman sosial untuk membantu menafsirkan dan menilai kebenaran mesin adalah bijaksana. Kita bisa mulai dengan:

  1. ** Mendefinisikan ‘Kebenaran Mesin’**: Kita membutuhkan istilah yang dengan jelas membedakan akurasi mesin dari kebenaran manusia. Kebenaran mesin mungkin secara ketat mengacu pada keselarasan yang konsisten dengan fakta yang terverifikasi, bebas dari bias dalam data pelatihan dan algoritme sejauh mungkin. Namun, itu secara eksplisit tidak memiliki dimensi etika atau motivasi.
  2. **Menetapkan Standar Verifikasi**: Karena mesin tidak mengejar kebenaran, kita harus menetapkan mekanisme verifikasi yang ketat untuk informasi yang dihasilkan AI. Untuk bidang berisiko tinggi seperti hukum, perawatan kesehatan, atau keuangan, kami mungkin mengharuskan output AI dikuatkan oleh para ahli manusia.
  3. **Pedoman untuk Kepercayaan**: Sama seperti kita memahami berbagai tingkat kepercayaan pada manusia, kita membutuhkan kerangka kerja untuk kepercayaan AI. Kerangka kerja ini dapat mengatasi jenis tugas yang dapat kita percayai secara wajar oleh mesin untuk melakukan dan menetapkan batasan yang jelas di mana intervensi manusia diperlukan untuk penalaran etis atau kritis.
  4. **Mendorong Transparansi dalam AI**: Dengan mempromosikan transparansi dalam desain AI, data pelatihan, dan keterbatasan, kami memungkinkan pengguna untuk menilai secara kritis sumber dan keandalan informasi yang dihasilkan mesin. Jika pengguna memahami dasar ‘pengetahuan’ AI, mereka dapat mengkontekstualisasikan dan memverifikasi outputnya dengan lebih baik.
  5. **Mengembangkan Literasi Interpretatif**: Masyarakat dapat memperoleh manfaat dari menumbuhkan ‘literasi interpretatif’ mengenai output AI. Mengajarkan orang bagaimana terlibat secara kritis dengan informasi yang dihasilkan mesin akan membekali mereka untuk membedakan kapan ‘kebenaran’ mesin dapat dipercaya dan kapan itu harus diverifikasi melalui pengawasan manusia.

Singkatnya, ya, AI mewakili kategori komunikasi yang berbeda, dan pemahaman kita tentang kebenaran harus beradaptasi. Manusia dan mesin terlibat dengan kebenaran dengan cara yang berbeda, dan ketika AI menjadi lebih terintegrasi ke dalam kehidupan kita, membedakan antara pengejaran moral kebenaran dalam komunikasi manusia dan akurasi statis dari output mesin akan menjadi penting. Mengembangkan seperangkat pedoman tentang cara menempatkan, memverifikasi, dan menafsirkan ‘kebenaran’ mesin akan membantu masyarakat berinteraksi dengan AI secara bertanggung jawab, sepenuhnya menyadari kekuatan dan keterbatasannya.

Pengamatan khusus dalam kesimpulan ChatGPT ini — bahwa “membedakan antara pengejaran moral kebenaran dalam komunikasi manusia dan akurasi statis keluaran mesin akan sangat penting” — tampaknya bagi saya untuk membenarkan analogi saya dengan mekanika kuantum. “Pengejaran moral kebenaran” berkorelasi dengan sifat seperti gelombang dari objek kuantum dan “akurasi statis” dengan persepsi kita tentang itu sebagai partikel.

Saya merasa bahwa percakapan ini, dengan sendirinya, merupakan ilustrasi kolaborasi dalam bidang pengetahuan kuantum. Percakapan itu sendiri, sebagai pertukaran dinamis, yang memungkinkan saya untuk mengklarifikasi pemikiran saya sendiri dan mendapatkan keuntungan dari “kebijaksanaan” statis yang disuling yang dikumpulkan dari akses chatbot, tidak hanya ke data yang ada, tetapi juga untuk ekspresi refleksi manusia tentang topik tersebut.

ChatGPT setuju bahwa, menurut definisi, “AI tidak pernah bisa benar-benar mewujudkan dimensi relasional dan moral yang sama dengan komunikasi manusia.” Apa pun yang dihasilkannya akan menyerupai partikel dan gagal menahan dinamika gelombang. Ini menghasilkan “akurasi statis—kebenaran tanpa komitmen atau hati nurani.” Dan mitra percakapan kami dengan bijak bersikeras bahwa “memperlakukan output AI seolah-olah berasal dari entitas yang diinvestasikan secara moral dapat menyebabkan kepercayaan yang salah tempat.”

Saya akan merekomendasikan bahwa saat kita melihat masa depan AI di masyarakat kita, kita harus menanggapi dengan sangat serius lima saran yang disebutkan oleh ChatGPT dan mengubahnya menjadi rencana tindakan. Dan lebih khusus lagi pada catatan itu, saya akan menyimpulkan dengan mengutip gagasan chatbot tentang “menumbuhkan ‘literasi interpretatif’ mengenai output AI.” Ini adalah topik yang bisa terus kita eksplorasi.

Pikiran Anda

Jangan ragu untuk membagikan pemikiran Anda tentang poin-poin ini dengan menulis kepada kami di [email protected]. Kami ingin mengumpulkan, berbagi, dan mengkonsolidasikan ide dan perasaan manusia yang berinteraksi dengan AI. Kami akan membangun pemikiran dan komentar Anda ke dalam dialog kami yang sedang berlangsung.

*(Kecerdasan Buatan sudah menjadi fitur kehidupan sehari-hari setiap orang. Kita secara tidak sadar menganggapnya sebagai teman atau musuh, penolong atau perusak. Di Fair Observer, kami melihatnya sebagai alat kreativitas, mampu mengungkapkan hubungan kompleks antara manusia dan mesin.)

(Lee Thompson-Kolar mengedit bagian ini.)

Pandangan yang diungkapkan dalam artikel ini adalah milik penulis sendiri dan tidak selalu mencerminkan kebijakan editorial Fair Observer.

Sumber