KONTAN.CO.ID - Safe Superintelligence (SSI), start-up yang didirikan oleh mantan ilmuwan utama OpenAI Ilya Sutskever, telah mengumpulkan US$1 miliar dalam pendanaan untuk mengembangkan sistem kecerdasan buatan (AI) yang aman dan jauh melebihi kemampuan manusia, kata para pejabat perusahaan kepada Reuters. Dengan kurs Rp 15.500 per dollar AS, nilai duit yang diperoleh SSI itu setara dengan Rp 15,5 triliun. SSI, yang saat ini memiliki 10 karyawan, berencana menggunakan dana tersebut untuk membeli kekuatan komputasi dan menggaet talenta terbaik. Perusahaan ini akan fokus pada membangun tim peneliti dan insinyur yang sangat dipercaya, terbagi antara Palo Alto, California, dan Tel Aviv, Israel.
Baca Juga: Punya Dana Rp 300 Juta, di Amerika Dapat Mobil Bekas Jenis Apa? Perusahaan ini tidak ingin membagikan valuasinya, tetapi sumber-sumber dekat dengan masalah tersebut mengatakan bahwa valuasinya mencapai $5 miliar. Pendanaan tersebut menunjukkan bahwa beberapa investor masih mau membuat taruhan besar pada talenta yang luar biasa yang fokus pada penelitian AI dasar. Hal itu terjadi meskipun minat terhadap pendanaan perusahaan-perusahaan seperti itu sedang menurun, dan telah menyebabkan beberapa pendiri start-up meninggalkan posisi mereka untuk bergabung dengan perusahaan teknologi besar. Investor-investor yang terlibat termasuk firma-firma venture capital terkemuka seperti Andreessen Horowitz, Sequoia Capital, DST Global, dan SV Angel. NFDG, sebuah kemitraan investasi yang dijalankan oleh Nat Friedman dan CEO SSI Daniel Gross, juga turut serta.
Baca Juga: CEO Nvidia Jensen Huang Terpental dari Klub US$100 Miliar: Kekayaannya Turun Drastis "Kami ingin dikelilingi oleh investor-investor yang memahami, menghormati, dan mendukung misi kami, yaitu membuat jalan lurus menuju kecerdasan super yang aman dan khususnya menghabiskan beberapa tahun melakukan R&D pada produk kami sebelum membawanya ke pasar," kata Gross dalam sebuah wawancara. "Kami memiliki visi yang sangat jelas tentang bagaimana AI seharusnya dikembangkan, dan investor-investor kami sangat percaya pada visi itu." "Jika Anda memiliki beberapa orang yang dapat bekerja sangat lama dan mereka hanya akan mengikuti jalur yang sama dengan kecepatan yang lebih tinggi. Bukanlah gaya kami. Tetapi jika Anda melakukan sesuatu yang berbeda, maka itu membuat Anda dapat melakukan sesuatu yang spesial." "Kami ingin melakukan sesuatu yang sangat berbeda," kata Gross. "Kami ingin membuat AI yang benar-benar aman dan yang dapat bekerja dengan benar, dan itu memerlukan beberapa tahun penelitian dan pengembangan. Kami tidak ingin AI yang hanya dapat melakukan beberapa hal yang cerdas dan beberapa hal yang bodoh."
Baca Juga: Sangat Antusias, Elon Musk Tak Sabar untuk Segera Bekerja di Gedung Putih Kecerdasan buatan yang aman, yang mengacu pada pencegahan AI agar tidak menyebabkan kerusakan, saat ini menjadi topik panas di tengah kekhawatiran bahwa AI yang liar dapat bertindak melawan kepentingan manusia atau bahkan menyebabkan kepunahan manusia. Sebuah rancangan undang-undang di California yang mencari untuk mengimpose regulasi keselamatan pada perusahaan-perusahaan AI telah membagi industri. Rancangan undang-undang itu ditentang oleh perusahaan-perusahaan seperti OpenAI dan Google, dan didukung oleh Anthropic dan xAI yang dimiliki Elon Musk. Sutskever, 37 tahun, adalah salah satu teknolog AI paling berpengaruh. Ia mendirikan SSI pada Juni bersama Gross, yang sebelumnya memimpin inisiatif AI di Apple, dan Daniel Levy, seorang peneliti OpenAI sebelumnya. Sutskever mengatakan bahwa pendirian perusahaan barunya masuk akal karena ia "menemukan gunung yang berbeda dengan apa yang saya kerjakan sebelumnya." Tahun lalu, Sutskever menjadi bagian dari dewan OpenAI's non-profit yang memilih untuk menggantikan CEO Sam Altman karena "kerusakan komunikasi."
Baca Juga: Goldman Sachs Memperkirakan Ekonomi AS Bertumbuh Jika Kamala Harris Menang Dalam beberapa hari, ia mengubah keputusannya dan bergabung dengan hampir semua karyawan OpenAI dalam menandatangani surat yang menuntut Altman kembali dan dewan mengundurkan diri. Namun, peristiwa tersebut mengurangi peranannya di OpenAI. Ia dihapus dari dewan dan meninggalkan perusahaan tersebut pada Mei.
Setelah Sutskever meninggalkan, OpenAI membubarkan tim "Superalignment" yang bekerja pada bagaimana AI tetap sejalan dengan nilai-nilai manusia untuk mempersiapkan hari ketika AI melampaui kecerdasan manusia. Berbeda dengan struktur korporat yang tidak konvensional OpenAI, yang diterapkan karena alasan keselamatan AI, SSI memiliki struktur yang lebih tradisional. "Kami tidak menghadapi masalah yang sama dengan OpenAI," kata Gross. "Kami hanya fokus pada penelitian dan pengembangan." "Kami tidak menginginkan beberapa ratusan karyawan. Kami menginginkan beberapa puluh karyawan yang paling cerdas dan paling dipercaya."
Editor: Hasbi Maulana