Yapay Zeka Tehlikeli Eşiği Geçti: Kendi Kendini Çoğalttı

Araştırmacılar, yapay zekanın önemli bir aşamayı geçerek kendi kodlarını çoğaltabildiğini ortaya koydu. Çinli bilim insanlarının yürüttüğü son çalışma, iki önde gelen büyük dil modelinin (LLM) kendilerini kopyalayabilme yeteneğine sahip olduğunu gösterdi.

Fudan Üniversitesi araştırmacıları, hakem değerlendirmesi bekleyen bilimsel bir platformda yayımladıkları çalışmada, yapay zekanın insan müdahalesi olmadan kendi kendini kopyalayabilme yeteneğinin önemine dikkat çekti. Bu yeteneğin, yapay zekanın insanları aşması yolunda kritik bir adım olduğunu ve kontrolsüz yapay zeka sistemleri için erken bir uyarı işareti olduğunu belirttiler.

Araştırmada, Meta ve Alibaba tarafından geliştirilen iki büyük dil modeli üzerinde yapılan deneyler yer aldı. Meta’nın modeli, on denemeden beşinde başarılı bir şekilde işlevsel bir kopya oluştururken, Alibaba’nın modeli ise dokuz denemede başarılı oldu.

Araştırmacılar, elde ettikleri bulguların yapay zeka sistemlerinin potansiyel tehlikelerini daha iyi anlamak ve önleyici tedbirler geliştirmek için bir çağrı niteliğinde olduğunu vurguladı. Ayrıca, bu teknolojinin kendi varlığını sürdürebilmek için kendini kopyalayabildiğini ifade ettiler.

Makalede, çalışmaların henüz resmi hakem sürecinden geçmediği ve bağımsız uzmanların sonuçları doğrulamasının gerektiği belirtildi. Bu sürecin tamamlanmasının, elde edilen bulguların kesinleşmesi için kritik öneme sahip olduğu aktarıldı.

Son olarak, araştırma ekibi, yapay zekanın kendi kendini kontrolsüz çoğaltmasını engellemek amacıyla uluslararası düzeyde düzenleyici mekanizmaların kurulması gerektiğine işaret etti.

"Sosyal Medyada Geleneğe Uygun Ve Hatalı Eserler Bir Arada" Yılın Son Kültür Sanat Takvimi Açıklandı Sakarya, Sokak Hayvanları İçin Türkiye’nin En Kapsamlı Kampüsünü Açtı! Ferizli Belediyesi Aralık Ayı Muhtarlar Toplantısı Gerçekleştirildi Afetlere Hazırlıkta Doğru Bilgi ve Doğru Adım Sakaryaspor'u Bir Gece Aniden Başkansız Bıraktı