ITD NEWS—ChatGPT Model Bahasa Besar (LLM) OpenAI, dirilis pada November 2022, dan penggantinya GPT-4, dirilis pada Maret 2023, telah menarik banyak perhatian dari masyarakat umum, yang juga meningkatkan kekhawatiran.
Mengingat perkembangan ini, Future of Life Institute menerbitkan Surat Terbuka untuk “Jeda Eksperimen AI Raksasa” pada 28 Maret.
Penulis surat tersebut menyerukan moratorium pelatihan model bahasa besar selama enam bulan, meningkatkan skenario “superintelijen” yang mengarah pada kepunahan umat manusia – juga dikenal sebagai risiko eksistensial atau risiko x.
Menurut co-founder Future of Life Institute Jann Tallinn, AI jahat menimbulkan bahaya yang lebih besar daripada krisis iklim.
Surat itu mencatat: “Haruskah kita membiarkan mesin membanjiri saluran informasi kita dengan propaganda dan ketidakbenaran? Haruskah kita mengotomatiskan semua pekerjaan, termasuk pekerjaan yang memuaskan? Haruskah kita mengembangkan pikiran nonmanusia yang pada akhirnya mungkin melebihi jumlah, mengakali, usang, dan menggantikan kita? Haruskah kita mengambil risiko kehilangan kendali atas peradaban kita?”
Ada banyak kritik dan ketidaksetujuan terhadap surat tersebut, terutama dari Institut Riset AI Terdistribusi (DAIR), yang didirikan oleh Timnit Gebru.
Ini karena pembingkaian narasi surat dimaksudkan untuk menakut-nakuti orang sambil memasarkan “alat yang terlalu kuat” yang perlu dijinakkan, yang secara keseluruhan memicu hype AI.
Ideologi yang mendasari keprihatinan yang diungkapkan oleh Future of Life Institute disebut longtermism. Tujuannya adalah untuk memaksimalkan kesejahteraan manusia dalam beberapa dekade, jika tidak berabad-abad atau ribuan tahun yang akan datang, dengan mengorbankan saat ini.
Pendukung jangka panjang yang terkenal sekarang adalah CEO FTX yang dipermalukan Sam Bankman-Fried, CEO Twitter dan SpaceX Elon Musk, pengusaha kontroversial Peter Thiel dan filsuf transhumanis Nick Bostrom, yang mencatat: “nilai yang diharapkan untuk mengurangi risiko eksistensial hanya sepersejuta dari satu persentase poin setidaknya sepuluh kali nilai satu miliar nyawa manusia”.
Latar belakang jangka panjang ini mengambil bentuk dari apa yang disebut Abeba Birhane sebagai “kolonialisme digital”, yang mengulangi penindasan selama berabad-abad untuk kepentingan visi elit miliarder teknologi tentang “kebaikan bagi umat manusia”, yang mencakup menjajah ruang angkasa atau melampaui kematian kita. .
Namun, tekno-utopianisme ini, yang membutuhkan “AI yang aman” untuk singularitas yang diinginkan, mengalihkan perhatian dari masalah mendesak saat ini.
Biaya Tersembunyi dari ‘Kecerdasan Super’
Sementara sistem ini tampak “otonom” dan “cerdas”, mereka masih mengandalkan tenaga manusia yang ekstensif. Seperti yang ditunjukkan Kate Crawford, ini dimulai dengan ekstraksi mineral dan pembuatan perangkat keras.
Selanjutnya, data, yang sering kali diambil tanpa persetujuan apa pun, perlu diberi label untuk memberinya makna, dan konten yang menyinggung, atau kekerasan perlu ditandai.
Pekerjaan yang eksploitatif, menyusahkan secara psikologis, dan bergaji rendah ini terjadi tanpa terlihat di latar belakang. Jadi, alih-alih “mengotomatiskan semua pekerjaan”, hasilnya adalah ketimpangan sosial yang memburuk dan sentralisasi kekuasaan.
Masalah lain dengan gagasan “kecerdasan super” adalah memberikan kesan yang salah bahwa LLM adalah entitas seperti makhluk hidup yang memahami dan bahkan mungkin memiliki perasaan atau empati.
Akibatnya, orang cenderung terlalu mengandalkan keluaran LLM, seperti dalam kasus tragis yang membuat seorang pria bunuh diri setelah berinteraksi dengan chatbot selama beberapa minggu.
Chatbot medis lain yang menggunakan GPT-3 juga menyarankan untuk bunuh diri atau mulai mendaur ulang untuk mengatasi kesedihan. Yang terakhir terdengar tidak masuk akal.
Tetapi LLM hanya menyatukan kata-kata yang terdengar masuk akal, yang dapat menghasilkan keluaran yang absurd, tidak akurat, berbahaya, dan menyesatkan, seperti artikel yang menyebutkan manfaat memakan gelas yang dihancurkan.
Mengingat hal ini, mungkin timbul pertanyaan tentang apa yang membenarkan penggunaan GPT.
Masalah apa yang LLM coba selesaikan? Juga, pertimbangkan bahwa mereka mengkonsumsi energi pada tingkat “menggiurkan” – diperkirakan bahwa hanya melatih satu model seperti GPT-3 menghabiskan listrik sebanyak 120 rumah tangga AS per tahun dan menghasilkan emisi karbon dioksida yang setara dengan emisi 110 mobil/tahun.
Perlu Transparansi dan Akuntabilitas
Jadi, ide yang mendasari untuk menghentikan pelatihan LLM lebih lanjut untuk tata kelola tampaknya menguntungkan. Surat terbuka, bagaimanapun, tidak menyatakan siapa yang akan terpengaruh oleh jeda ini dan bagaimana menegakkan atau memastikannya.
Naif untuk berpikir bahwa setiap perusahaan, universitas, lembaga penelitian, atau individu mana pun yang menggunakan berbagai alternatif sumber terbuka, akan berhenti begitu saja.
Pada saat yang sama, LLM yang sedang berjalan akan bertahan dengan implikasinya.
Namun Microsoft, yang telah melakukan investasi multi-miliar di OpenAI, dan CEO Twitter Elon Musk, yang menyumbangkan $10 juta ke Future of Life Institute dan anggota dewan mereka, telah memecat tim etika mereka.
Sebagai tanggapan pertama, Italia melarang ChatGPT beberapa hari yang lalu dan negara-negara Eropa lainnya sedang mempertimbangkan untuk melakukan hal yang sama.
Namun, tidak jelas bagaimana larangan ini akan memengaruhi aplikasi lain yang menggunakan LLM seperti ChatGPT atau GPT-4.
Mengingat berbagai efek hilir, skenario samar dan apokaliptik yang menjangkau jauh ke masa depan, seperti yang digambarkan oleh Future of Life Institute, tidak mengarah pada tindakan dan peraturan politik konkret yang saat ini diperlukan – terutama tidak dalam kerangka waktu yang diusulkan.
Sebaliknya, jika agenda politik didorong oleh gagasan “superintelijen” yang mengendalikan umat manusia, ada bahaya risiko saat ini, serta solusi saat ini, akan diabaikan.
Dan meskipun LLM tidak menimbulkan risiko eksistensial bagi peradaban “kita”, mereka melakukannya pada sebagian besar, terutama yang sudah terpinggirkan.
Sekalipun kita ingin mempertahankan gagasan tentang “kecerdasan super”, itu seharusnya bukan narasi dominan yang menjadi fokus saat ini.
Karena jika Anda menggambarkan model-model ini sebagai terlalu kuat dan menganggap mereka semacam agensi, Anda mengalihkan tanggung jawab dari perusahaan yang mengembangkan sistem ini.
Untuk meminta pertanggungjawaban perusahaan, diperlukan transparansi tentang bagaimana LLM ini dikembangkan dan dengan data apa mereka dilatih.
Namun sebaliknya, OpenAI, yang bertentangan dengan namanya sekarang menjadi sumber tertutup, menyatakan dalam apa yang disebut “laporan teknis” di GPT-4 bahwa “laporan ini tidak berisi perincian lebih lanjut tentang arsitektur (termasuk ukuran model), perangkat keras, pelatihan komputasi, konstruksi dataset, metode pelatihan, atau yang serupa”.
Kerahasiaan ini menghalangi keputusan demokratis dan dengan demikian peraturan tentang kondisi di mana LLM harus dikembangkan dan digunakan.
Tidak ada yang namanya “satu-satunya AI yang baik”; oleh karena itu kita tidak boleh mempercayai sekelompok orang yang relatif kecil dan memiliki hak istimewa yang percaya bahwa “kecerdasan super” tidak dapat dihindari – padahal tidak demikian – dengan cara membangun AI yang “aman”.
Sebaliknya, kita perlu memulai dengan melibatkan orang yang berbeda, terutama yang dirugikan, dalam percakapan untuk mengubah narasi dan relasi kekuasaan. (Rasya)