Yapay Zeka Tehlikeli Eşiği Geçti: Kendi Kendini Çoğalttı
Araştırmacılar, yapay zekanın önemli bir aşamayı geçerek kendi kodlarını çoğaltabildiğini ortaya koydu. Çinli bilim insanlarının yürüttüğü son çalışma, iki önde gelen büyük dil modelinin (LLM) kendilerini kopyalayabilme yeteneğine sahip olduğunu gösterdi.
Fudan Üniversitesi araştırmacıları, hakem değerlendirmesi bekleyen bilimsel bir platformda yayımladıkları çalışmada, yapay zekanın insan müdahalesi olmadan kendi kendini kopyalayabilme yeteneğinin önemine dikkat çekti. Bu yeteneğin, yapay zekanın insanları aşması yolunda kritik bir adım olduğunu ve kontrolsüz yapay zeka sistemleri için erken bir uyarı işareti olduğunu belirttiler.
Araştırmada, Meta ve Alibaba tarafından geliştirilen iki büyük dil modeli üzerinde yapılan deneyler yer aldı. Meta’nın modeli, on denemeden beşinde başarılı bir şekilde işlevsel bir kopya oluştururken, Alibaba’nın modeli ise dokuz denemede başarılı oldu.
Araştırmacılar, elde ettikleri bulguların yapay zeka sistemlerinin potansiyel tehlikelerini daha iyi anlamak ve önleyici tedbirler geliştirmek için bir çağrı niteliğinde olduğunu vurguladı. Ayrıca, bu teknolojinin kendi varlığını sürdürebilmek için kendini kopyalayabildiğini ifade ettiler.
Makalede, çalışmaların henüz resmi hakem sürecinden geçmediği ve bağımsız uzmanların sonuçları doğrulamasının gerektiği belirtildi. Bu sürecin tamamlanmasının, elde edilen bulguların kesinleşmesi için kritik öneme sahip olduğu aktarıldı.
Son olarak, araştırma ekibi, yapay zekanın kendi kendini kontrolsüz çoğaltmasını engellemek amacıyla uluslararası düzeyde düzenleyici mekanizmaların kurulması gerektiğine işaret etti.