![Ну а как же без гнилых болот? ► 7 Прохождение Elden Ring](https://i.ytimg.com/vi/t8NSXfd4RfI/hqdefault.jpg)
Ia seolah-olah sebulan tidak berlalu tanpa beberapa orang berprofil tinggi yang mengulas tentang potensi mesin dengan Inteligensi Artificial untuk mengambil alih dunia. Elon Musk telah mencatat bahawa sistem AI "berpotensi lebih berbahaya daripada nuklear." Tetapi dia bukan satu-satunya, Stephen Hawking juga prihatin, "Pengembangan kecerdasan buatan penuh dapat mengeja akhir umat manusia," Profesor Hawking memberitahu BBC. "Ia akan mengambil kira sendiri, dan membuat rekaan semula pada kadar yang semakin meningkat." Malah Bill Gates bimbang, "Saya berada di kem yang prihatin terhadap kepintaran super. Saya bersetuju dengan Elon Musk dan beberapa orang lain tentang perkara ini dan tidak faham mengapa sesetengah orang tidak bimbang. "
Mereka semua menyuarakan kebimbangan mengenai kemungkinan sistem AI yang berkuasa yang tidak diingini, atau mungkin berpotensi merosakkan, akibatnya. Kembali pada bulan Januari, Elon Musk menyumbangkan $ 10 juta kepada Institut Masa Depan Kehidupan (FLI) untuk menjalankan program penyelidikan global yang bertujuan untuk memastikan AI bermanfaat kepada manusia.
Hari ini Institut Masa Depan Kehidupan telah mengumumkan bahawa ia telah menganugerahkan $ 7 juta dana kepada 37 pasukan penyelidikan di seluruh dunia supaya masyarakat dapat meraih faedah AI, sambil mengelakkan kiamat dan akhir hayat di bumi.
Bahaya dengan senario Terminator bukanlah ia akan berlaku, tetapi ia mengalihkan perhatian daripada masalah sebenar yang diajukan oleh AI masa depan.
Jaan Tallin, salah seorang ahli pengasas FLI dan lelaki yang menulis versi asal Skype, berkata mengenai penyelidikan baru, "membangun AI canggih seperti melancarkan roket. Cabaran pertama adalah untuk memaksimumkan pecutan, tetapi apabila ia mula mengambil kelajuan, anda juga perlu memberi tumpuan kepada stereng. "
Antara 37 projek adalah tiga projek yang akan melihat teknik-teknik untuk membolehkan sistem AI mempelajari apa yang orang lebih suka daripada memerhatikan tingkah laku kita. Salah satu projek ini akan dijalankan di UC Berkeley, dan satu akan di Oxford University.
Benja Fallenstein, di Institut Penyelidikan Perisikan Mesin, memperoleh $ 250,000 untuk menyelidik cara-cara untuk menjaga kepentingan sistem superintelligent sejajar dengan nilai-nilai manusia. Pasukan Manuela Veloso, dari Carnegie-Mellon University, akan menerima $ 200,000 untuk melihat cara membuat sistem AI menerangkan keputusan mereka kepada manusia.
Projek-projek lain termasuk kajian oleh Michael Webb dari Stanford University mengenai bagaimana untuk mengekalkan impak ekonomi AI yang bermanfaat, sebuah projek mengenai cara untuk mengekalkan senjata yang didorong oleh AI di bawah "kawalan manusia yang bermakna", dan sebuah pusat penyelidikan Oxford-Cambridge baru untuk mengkaji AI - dasar berkaitan.
Bercakap tentang Hollywood, FLI cuba untuk memisahkan dirinya dengan wahyu. FLI berminat menekankan pentingnya memisahkan fakta daripada fiksyen. "Bahaya dengan senario Terminator bukanlah ia akan berlaku, tetapi ia mengalihkan perhatian daripada isu-isu sebenar yang ditimbulkan oleh AI masa depan," kata presiden FLI Max Tegmark. "Kami tetap fokus, dan 37 pasukan yang disokong oleh geran hari ini harus membantu menyelesaikan masalah sebenar."
Apa pendapat kamu? Wang dibelanjakan dengan baik?