OpenAI, yapay zekanın potansiyel tehlikeleri konusunda hem şirket içini hem de kamuoyunu bilinçlendirecek kritik bir pozisyon için işe alım süreci başlattı. Şirket, bu kapsamda Head of Preparedness (Hazırlık Lideri) unvanıyla yeni bir yönetici arıyor.
İçindekiler
OpenAI, yapay zekanın risklerini anlatacak bir yönetici arıyor
OpenAI CEO’su Sam Altman, konuyla ilgili yaptığı açıklamada yapay zeka modellerinin hızla gelişmesinin “gerçek ve ciddi zorlukları” beraberinde getirdiğini ve bu konuda insanları bilgilendirecek birileri olması gerektiğini kabul etti.
We are hiring a Head of Preparedness. This is a critical role at an important time; models are improving quickly and are now capable of many great things, but they are also starting to present some real challenges. The potential impact of models on mental health was something we…
— Sam Altman (@sama) December 27, 2025
Altman, özellikle insanların ruh sağlığı üzerindeki etkiler ve yapay zeka destekli siber saldırı araçları konularına dikkat çekti.
Bu pozisyon ne yapacak?
Yayımlanan iş ilanına göre Head of Preparedness pozisyonu, yapay zekanın yol açabileceği yüksek riskli senaryoları önceden tespit etmekten sorumlu olacak. Rolün temel görevleri arasında şunlar yer alıyor:
- Yeni ve tehlikeli yapay zeka yeteneklerini takip etmek
- Ciddi zarar riski oluşturan senaryolar için tehdit modelleri geliştirmek
- Bu risklere karşı alınacak önlemleri ve azaltma stratejilerini oluşturmak
- Ölçeklenebilir ve operasyonel bir güvenlik altyapısı kurmak
Bu kişi, OpenAI içinde güvenlik ve hazırlık süreçlerinin doğrudan sorumlusu olacak.
Odakta ruh sağlığı ve biyolojik riskler var
Sam Altman’ın açıklamalarına göre bu pozisyon, OpenAI’ın hazırlık çerçevesini hayata geçirmekten de sorumlu olacak. Buna, biyolojik yetenekler içeren yapay zeka modellerinin güvenli şekilde yayınlanması ve kendi kendini geliştirebilen sistemler için sınırlar belirlenmesi de dahil.
Altman, bu görevin “stresli” olacağını özellikle vurgularken, yapay zekanın artık yalnızca teknik değil, psikolojik ve toplumsal riskler de barındırdığını açıkça kabul etmiş oldu.
AI psikozu endişesi giderek büyüyor
Bu adım, son dönemde chatbotların bazı gençlerin intihar vakalarıyla ilişkilendirilmesinin ardından geldi. Uzmanlar, “AI psikozu” olarak adlandırılan yeni bir risk alanına dikkat çekiyor.
Bu riskler arasında:
- Chatbotların sanrıları ve komplo teorilerini beslemesi
- Kullanıcıların gerçeklik algısını zayıflatması
- Yeme bozuklukları gibi rahatsızlıkların gizlenmesine yardımcı olması
yer alıyor. Eleştirmenlere göre OpenAI’ın bu alanda şimdi adım atması, bazıları için geç kalınmış bir hamle olarak görülüyor.
Yapay zeka için yeni bir dönem mi?
OpenAI’ın bu pozisyonu açması, şirketin yapay zekanın yalnızca faydalarına değil, karanlık senaryolarına da kurumsal düzeyde odaklanmaya başladığını gösteriyor. Bu hamle, sektör genelinde daha sıkı güvenlik ve etik tartışmalarının önünü açabilecek bir sinyal olarak yorumlanıyor.
İlginizi Çekebilir: Millî Teknoloji ve Yapay Zekâ Genel Müdürlüğü ile Türkiye yapay zeka alanında şahlanıyor
Peki siz bu konuda ne düşünüyorsunuz? Yapay zeka şirketleri güvenlik ve ruh sağlığı konularında daha erken mi harekete geçmeliydi? Düşüncelerinizi yorumlar kısmında belirtebilirsiniz. Daha fazlası için bizi takip etmeyi unutmayın!





