ChatGPT’nin Yetkileri Sınırlandırıldı
OpenAI, ChatGPT’nin kullanım politikalarında yeni düzenlemelere gitti. Yapay zekâ artık tıp, hukuk ve finans gibi lisans gerektiren alanlarda kişiye özel tavsiye veremeyecek. Yeni kurallar, kullanıcı güvenliğini artırmayı ve yanlış yönlendirmelerin önüne geçmeyi amaçlıyor.
Yapay zekâ uygulamalarının kullanım alanları her geçen gün genişlerken, OpenAI ChatGPT’nin yetki sınırlarını yeniden düzenledi. Şirketin güncellenen “Kullanım Kuralları”na göre ChatGPT, tıp, hukuk ve yatırım gibi yüksek riskli alanlarda bireysel tavsiyelerde bulunamayacak.
Yeni düzenlemeyle birlikte ChatGPT, ilaç ismi veya dozajı veremeyecek, dava dilekçesi ya da hukuki belge hazırlayamayacak ve yatırım önerisi sunamayacak. OpenAI, bu tür alanların lisanslı profesyonellerin uzmanlık alanına girdiğini vurgulayarak, yapay zekânın yalnızca genel bilgilendirme ve yönlendirme amacıyla kullanılabileceğini belirtti.
Tıp alanında ChatGPT artık kullanıcıya doğrudan tedavi veya ilaç önerisi sunamayacak; sadece genel sağlık bilgileri ve “bir uzmana başvur” yönlendirmesi yapabilecek. Hukukta ise dava veya başvuru süreciyle ilgili belge hazırlamak yerine genel yasal süreçler hakkında bilgi verebilecek. Finans tarafında ise kişisel yatırım stratejileri oluşturmak yasaklanırken, ekonomik kavramlar ve piyasa işleyişi gibi genel konular anlatılabilecek.
OpenAI ayrıca yapay zekâ modellerinin silah, yasa dışı madde, sahte belge veya deepfake üretimi gibi riskli alanlarda kullanılmasına da kesin sınırlar getirdi. Şirket, bu adımın kullanıcı güvenliği, etik standartlar ve yapay zekâ uygulamalarında şeffaflık açısından kritik olduğunu belirtti.
ChatGPT ise yeni politikalar kapsamında hâlâ araştırma, eğitim, yazım, özetleme, çeviri ve teknik destek gibi alanlarda kullanılabilecek. Sistem, gerektiğinde kullanıcıyı “profesyonel görüş alman gerekir” şeklinde uyararak güvenli bilgilendirme yapmayı sürdürecek.