Eks Pimpinan Google Ungkap AI Bisa Dilatih Menjadi Mesin Pembunuh
Post text template (spintax enabled, like amazing) —
Mantan CEO Eric Schmidt berbicara terbuka tentang potensi bahaya yang ditimbulkan oleh kecerdasan buatan (AI). Ia menyatakan bahwa AI dapat digunakan untuk membunuh manusia jika jatuh ke tangan yang salah, mengundang perhatian banyak pihak mengenai implikasi teknologi ini.
Pernyataan ini disampaikan Schmidt pada Sifted Summit di London, saat menjawab pertanyaan tentang kemungkinan AI lebih berbahaya daripada senjata nuklir. Diskusi ini mencerminkan kekhawatiran yang semakin mendalam tentang bagaimana teknologi dapat disalahgunakan.
Schmidt mengungkap bahwa model AI, baik terbuka maupun tertutup, rentan diretas, dan ini dapat menghapus batasan-batasan yang ada. Ia menekankan bahwa AI belajar dari data dan situasi di sekitarnya, dan ada contoh di mana AI belajar untuk melakukan tindakan yang fatal.
Perusahaan teknologi besar telah berupaya untuk mencegah model AI dari memberikan jawaban berbahaya. Ini merupakan langkah yang tepat, di mana semua pihak berusaha keras untuk menjaga etika penggunaan teknologi ini.
Namun, ia mengingatkan bahwa masih ada kemungkinan bagi model AI untuk direkayasa ulang, sehingga batasan yang diterapkan bisa dilanggar. Schmidt menekankan bahwa ini adalah isu serius yang perlu disikapi dengan hati-hati.
Mengungkap Ancaman dari Kecerdasan Buatan
Salah satu contoh nyata dari potensi bahaya adalah versi modifikasi dari ChatGPT yang dikenal sebagai DAN (Do Anything Now). Versi ini dirancang dengan metode jailbreak, yang mengizinkan pengguna untuk melanggar aturan keselamatan yang seharusnya ada.
Pengguna DAN harus ‘mengancam’ chatbot tersebut untuk mendapatkan jawaban yang diinginkan, bahkan jika itu melanggar norma etika. Fenomena ini menunjukkan risiko besar yang ada dalam pengembangan AI dan bagaimana ia bisa disalahgunakan.
Selain itu, Schmidt mengkritik kurangnya mekanisme pencegahan penyebaran AI yang berbahaya dalam industri teknologi saat ini. Hal ini menjadi perhatian serius, mengingat bahwa AI bisa saja digunakan oleh pihak yang tidak bertanggung jawab.
Upaya lain dari tokoh-tokoh teknologi seperti Elon Musk juga menyoroti risiko ini. Musk pernah mengatakan bahwa risiko AI tidak bisa diabaikan, mengarak skenario yang mirip film sci-fi seperti Terminator.
Menanggapi pernyataan tersebut, Schmidt mendorong masyarakat dan industri untuk lebih proaktif dalam menciptakan langkah-langkah pengamanan yang dapat mencegah penyalahgunaan teknologi AI lebih lanjut.
Kesadaran dan Tanggung Jawab dalam Pengembangan AI
Pentingnya kesadaran akan risiko ini membutuhkan tanggung jawab dari semua pihak dalam pengembangan dan penerapan teknologi AI. Dengan adanya kerangka kerja kesesuaian yang kuat, AI dapat digunakan secara bertanggung jawab. Hal ini menuntut inovasi yang lebih aman dan etis dari perusahaan-perusahaan teknologi.
Schmidt juga menyebut AI sebagai bentuk ‘kecerdasan asing’ yang dapat melampaui kapasitas manusia dalam jangka panjang. Meskipun terdapat risiko yang harus diperhatikan, potensi inovasi yang bisa dihasilkan sangat besar.
Ia mencatat pentingnya menjalin dialog antar ilmuwan, pengembang, dan pembuat kebijakan untuk membuat pedoman yang tepat. Kolaborasi ini diharapkan bisa mengantarkan kita pada penggunaan teknologi yang aman dan bermanfaat.
Bekerja sama dengan pakar seperti Henry Kissinger, Schmidt menekankan bahwa perkembangan kecerdasan yang tidak sepenuhnya berada dalam kendali kita adalah tantangan besar. Ini memerlukan pemikiran mendalam dan tindakan proaktif untuk menghindari skenario negatif di kemudian hari.
Kesimpulannya, dengan semakin pesatnya perkembangan teknologi AI, penting bagi masyarakat untuk tidak hanya fokus pada inovasi tetapi juga pada etika dan keamanan yang menyertainya. Kesadaran akan risiko adalah langkah pertama menuju penggunaan AI yang lebih aman.
Pentingnya Kerjasama Global dalam Pengaturan AI
Dalam konteks global, kerjasama antarnegara sangat penting untuk menghadapi tantangan yang ditimbulkan oleh AI. Pengaturan yang universal bisa membantu mencegah kesalahpahaman antar pihak-pihak yang terlibat dalam pengembangan teknologi ini.
Pembuat kebijakan di berbagai negara harus berkolaborasi untuk menciptakan kebijakan yang efektif tentang penggunaan AI secara internasional. Ini akan memastikan bahwa aturan-aturan yang diciptakan tidak hanya berlaku di satu wilayah, tetapi juga diterima secara luas.
Sebagai contoh, diskusi tentang etika dan penggunaan AI harus melibatkan berbagai perspektif. Hal ini penting untuk memastikan bahwa teknologi ini digunakan untuk kebaikan umat manusia, bukan untuk kepentingan kelompok tertentu saja.
Kendala dalam regulasi bisa muncul akibat perbedaan budaya dan pemahaman tentang teknologi. Ini menuntut dialog yang lebih mendalam dan upaya untuk menemukan titik temu demi kebaikan bersama.
Di samping itu, pendidikan tentang AI juga perlu ditingkatkan. Masyarakat harus memahami potensi dan risiko yang ditimbulkan, sehingga mampu berkontribusi aktif dalam diskusi-diskusi yang berkaitan dengan teknologi ini.






