Berita
Vitalik Buterin Mengkritik Keras AI Superintelligent, Menyerukan Keputusan Open Source
check_eligibility

Dapatkan Akses Eksklusif ke Daftar Tunggu Yellow Network

Gabung Sekarang
check_eligibility

Vitalik Buterin Mengkritik Keras AI Superintelligent, Menyerukan Keputusan Open Source

May, 22 2024 8:18
Vitalik Buterin Mengkritik Keras AI Superintelligent,  Menyerukan Keputusan Open Source

Vitalik Buterin, salah satu pendiri visioner Ethereum, telah mengeluarkan peringatan tajam terhadap perkembangan AI superintelligent. "Kita harus menghindari dunia di mana sebagian besar pemikiran manusia dibaca dan dimediasi oleh beberapa server pusat yang dikendalikan oleh beberapa orang," katanya menulis dalam posting terbarunya di X.

Dalam dunia yang semakin didorong oleh teknologi, kata-kata peringatannya datang sebagai kejutan bagi mereka yang memimpikan masa depan utopis yang dibentuk oleh kecerdasan buatan yang maju. Kekhawatiran Buterin tidak hanya bersifat teoretis. Dia menekankan risiko nyata mengejar AI yang dapat melampaui kecerdasan manusia.

AI superintelligent sangat berisiko dan kita tidak boleh terburu-buru mencapainya, dan kita harus menentang orang-orang yang mencoba. Tidak ada server farm senilai $7T plz.

Sikap Buterin terhadap pengembangan AI tidak tanpa ironi. Inilah orang yang telah mendorong batas teknologi blockchain, mendesak kehati-hatian terhadap perbatasan lain. Pesannya jelas: inovasi tidak boleh mengorbankan keselamatan manusia. Peringatan ini menyentuh hati mereka yang ada dalam industri teknologi yang mengingat konsekuensi tak terduga dari lompatan teknologi masa lalu.

Menurutnya, pengejaran terhadap AI superintelligent penuh dengan bahaya. Risiko menciptakan entitas yang dapat berpikir lebih pintar dari penciptanya terlalu besar untuk diabaikan. Argumen Buterin bergantung pada potensi AI semacam itu untuk bertindak dengan cara yang merugikan manusia, jauh di luar kendali pengembangnya.

Ini bukan spekulasi belaka. Preseden historis dari konsekuensi tak terduga dalam kemajuan teknologi memberi bobot pada kekhawatirannya.

Kekhawatiran Buterin meluas ke implikasi etis yang lebih luas dari pengembangan AI. Dia menyarankan bahwa pendekatan yang lebih terukur diperlukan, yang memprioritaskan keselamatan dan pertimbangan etis. Ajakan di sini bukan untuk menghambat inovasi tetapi untuk memastikan kemajuannya dengan cara yang tidak membahayakan kesejahteraan manusia. Ini adalah panggilan untuk keseimbangan di bidang yang sering kali dicirikan oleh dorongan maju yang tak kenal lelah.

Dunia keuangan, yang selalu mencari hal besar berikutnya, mungkin menemukan peringatan Buterin sebagai pengingat yang menyadarkan. Investasi dalam AI sedang meroket, dengan janji merevolusi industri. Namun, pesan Buterin berfungsi sebagai cek yang tepat waktu. Ini adalah pengingat bahwa dengan kekuatan besar datang tanggung jawab besar.

Di era di mana optimisme teknologi sering kali mengalahkan kewaspadaan, peringatan Buterin adalah suara akal yang penting. Implikasi bagi investor dan pengembang jelas: lanjutkan, tetapi dengan hati-hati. Masa depan pengembangan AI harus dinavigasi dengan kesadaran akan potensi risikonya.