- Mantan CEO Google Eric Schmidt ikut menulis makalah yang memperingatkan AS tentang bahaya proyek AI Manhattan.
- Di koran, Schmidt, Dan Hendrycks, dan Alexandr Wang mendorong pendekatan yang lebih defensif.
- Para penulis menyarankan proyek saingan sabotase AS, daripada memajukan perbatasan AI saja.
Beberapa nama terbesar di AI Tech mengatakan AI “Proyek Manhattan” dapat memiliki efek yang meresap di AS, daripada membantu melindunginya.
Peringatan yang mengerikan datang dari mantan CEO Google Eric SchmidtPusat Direktur Keselamatan AI Dan Hendrycks, dan CEO AI Skala Alexandr Wang. Mereka ikut menyusun makalah kebijakan berjudul “Strategi Superintelligence” yang diterbitkan pada hari Rabu.
Di koran, Tech Titans mendesak AS untuk menjauh dari dorongan agresif untuk mengembangkan AI Superintelligent, atau AGI, yang menurut penulis dapat memicu pembalasan internasional. Cina, khususnya, “tidak akan menganggur” sementara AS bekerja untuk mengaktualisasikan AGI, dan “berisiko kehilangan kendali,” tulis mereka.
Para penulis menulis bahwa keadaan yang mirip dengan perlombaan senjata nuklir yang melahirkan proyek Manhattan – sebuah inisiatif rahasia yang berakhir dengan penciptaan bom atom pertama – telah berkembang di sekitar perbatasan AI.
Pada bulan November 2024, misalnya, komite kongres bipartisan menyerukan “Seperti proyek Manhattan“Program, yang didedikasikan untuk memompa dana ke dalam inisiatif yang dapat membantu AS mengalahkan China dalam perlombaan ke AGI. Dan hanya beberapa hari sebelum penulis merilis makalah mereka, Sekretaris Energi AS Chris Wright mengatakan negara itu sudah” pada awal proyek Manhattan baru. “
“Proyek Manhattan mengasumsikan bahwa saingan akan menyetujui ketidakseimbangan yang abadi atau omnicide daripada bergerak untuk mencegahnya,” tulis para penulis. “Apa yang dimulai sebagai dorongan untuk superweapon dan kontrol global yang mendorong penanggulangan yang bermusuhan dan meningkatnya ketegangan, sehingga merusak stabilitas strategi yang dimaksudkan untuk diamankan.”
Bukan hanya pemerintah yang mensubsidi kemajuan AI, menurut Schmidt, Hendrycks, dan Wang – perusahaan swasta mengembangkan “proyek Manhattan” mereka sendiri. Demis HassabisCEO Google DeepMind, mengatakan dia kehilangan tidur karena kemungkinan berakhir seperti Robert Oppenheimer.
“Saat ini, urgensi serupa terbukti dalam upaya global untuk memimpin di AI, dengan investasi dalam pelatihan AI berlipat ganda setiap tahun selama hampir dekade terakhir,” kata penulis. “Beberapa ‘Proyek AI Manhattan’ yang bertujuan untuk akhirnya membangun Superintelligence sudah berlangsung, dibiayai oleh banyak perusahaan paling kuat di dunia.”
Penulis berpendapat bahwa AS sudah menemukan dirinya beroperasi dalam kondisi yang mirip dengan Penghancuran yang saling memastikanyang mengacu pada gagasan bahwa tidak ada bangsa dengan senjata nuklir yang akan menggunakan persenjataannya terhadap orang lain, karena takut akan pembalasan. Mereka menulis bahwa upaya lebih lanjut untuk mengendalikan ruang AI dapat memancing pembalasan dari kekuatan global saingan.
Sebagai gantinya, makalah ini menyarankan AS dapat mengambil manfaat dari mengambil pendekatan yang lebih defensif – menyabotase proyek AI “mendestabilisasi” melalui metode seperti serangan cyber, daripada bergegas untuk menyempurnakan mereka sendiri.
Untuk membahas “negara -negara saingan, aktor jahat, dan risiko kehilangan kendali” sekaligus, penulis mengajukan strategi tiga kali lipat. Menghalangi melalui sabotase, Membatasi akses chip dan “Sistem AI yang dapat dipersenjatai” untuk “aktor jahat,” dan menjamin akses AS ke chip AI melalui manufaktur dalam negeri.
Secara keseluruhan, Schmidt, Hendrycks, dan Wang mendorong untuk keseimbangan, daripada apa yang mereka sebut strategi “bergerak cepat dan merusak hal -hal”. Mereka berpendapat bahwa AS memiliki kesempatan untuk mengambil langkah mundur dari kesibukan mendesak perlombaan senjata, dan beralih ke strategi yang lebih defensif.
“Dengan secara metodis membatasi gerakan yang paling tidak stabil, negara bagian dapat memandu AI menuju manfaat yang belum pernah terjadi sebelumnya daripada mengambil risiko itu menjadi katalisator kehancuran,” tulis para penulis.

