Stephen Hawking terus menyatakan “perang” terhadap faktor keselamatan kecerdasan buatan (Artificial Intelligence – AI) dengan menyatakan bahwa landasan untuk protocol keamanannya perlu dimulai tidak dalam beberapa waktu mendatang, namun harus dimulai dari sekarang.

“Kami harus menggeser tujuan dari menciptakan kecerdasan buatan yang diarahkan murni untuk menciptakan sebuah kecerdasan yang menguntungkan,” tulis fisikawan kondang tersebut. “Mungkin butuh puluhan tahun untuk mencari tahu bagaimana melakukan hal ini, jadi mari kita mulai meneliti sejak hari ini daripada saat malam sebelum AI kuat pertama diaktifkan.”

Hawking telah memanfaatkan kepopulerannya untuk meningkatkan gerakan AI yang aman sejak 2014, ketika ia menulis sebuah editorial dengan peneliti AI terkemuka lainnya yang memperingatkan tentang risiko eksistensial mesin canggih bagi kemanusiaan. Tokoh masyarakat lainnya dalam bidang ilmu pengetahuan dan teknologi seperti Elon Musk dan Steve Wozniak telah bergabung Hawking untuk meningkatkan kesadaran masyarakat tentang risiko AI, dan awal tahun ini mereka merilis tiga surat terbuka yang menyerukan larangan senjata otomatis, atau robot bersenjata.

Keyakinan bahwa manusia telah berada di ambang penciptaan kecerdasan buatan yang lebih besar dari dirinya sendiri telah dimulai sejak tahun 1950- an. Harapan ini telah berulang kali digagalkan, namun sebagian besar peneliti AI masih percaya bahwa mesin dengan tingkat kecerdasan setara manusia akan muncul pada abad berikutnya.

Bagi Hawking, cara yang signifikan telah digunakan dalam budaya populer untuk menanggapi tentang peringatan akan bahayanya AI. Film seperti “The Terminator” yang membayangkan tentang robot pembunuh yang bertekad untuk menghancurkan umat manusia, ditanggapi sebagai ketiadaan motif mesin dalam kehidupan nyata untuk membunuh manusia.

“Risiko nyata AI bukanlah kejahatannya tetapi kompetensinya. Sebuah AI yag super cerdas akan sangat baik dalam mencapai targetnya, dan jika tujuan tersebut tidak selaras dengan kita, kitalah yang akan berada dalam kesulitan”, tulis Hawking.

Skenario kiamat dibayangkan oleh filsuf AI popular seperti Nick Bostrom dengan melibatkan sebuah program “jinak” yang salah dalam mencoba untuk melaksanakan tugas yang tampaknya jinak, seperti memutuskan untuk “menghilangkan manusia” ketika diperintahkan untuk “melindungi lingkungan”.

“Silakan mendorong siswa untuk berpikir tidak hanya tentang cara membuat AI, tetapi juga tentang bagaimana untuk memastikan penggunaan yang berguna dan aman,” ujar Hawking bagi para guru yang mengajar kelas AI. “Ketika kemunculan AI super cerdas itu akhirnya tidak terjadi, hal itu mungkin merupakan hal terbaik atau terburuk yang pernah terjadi pada manusia, sehingga terdapat nilai besar dalam memastikan hal itu dikerjakan dengan benar,” pungkasnya. (Osc/Yant)

Share

Video Popular