Her ne kadar adı OpenAI olsa da firmanın o denli da “açık” bir şirket olmadığı biliniyor. Göz kamaştırıcı, son teknoloji suni zeka ürünleri firmadan hiçbir uyarı yapılmadan ortaya çıkıyor ve eşit seviyede coşku ve kaygı yaratıyor. Sadece işin ürün geliştirmede olduğu şeklinde, firmanın iç kültürü de alışılmadık derecede saydam değil; bu da OpenAI’ın güvenlik sorunlarıyla ilgilenen “superalignment” ekibinin ayrılan eş başkanı Jan Leike’nin şirket aleyhine konuşmasını daha da rahatsız edici hale getiriyor.
https://twitter.com/janleike/status/1791498178346549382″/>
Bu şekilde bir durum OpenAI’ı yakından takip edenler tarafınca kısmen bekleniyordu. Firmanın yüksek profilli eski baş bilim insanı Ilya Sutskever de Salı günü ansızın çekilme etti ve “#WhatDidIlyaSee” (IlyaNeGördü) trend olan bir hashtag haline geldi. Daha ilkin de bu hashtag, Sutskever’in CEO Sam Altman’ın kısa süreliğine kovulmasına yol açan kurumsal entrikalara katılmış olduğu Mart ayına ilişkin. Bu etiket Sutskever dünyayı suni zeka aynasından görmüş ve ondan feryat atarak firar etmiş şeklinde bir izlenim yarattı.
Geçtiğimiz Kasım ayından bu yana firmanın güvenlik mevzusunda endişeler taşıyan minimum 5 çalışanı daha ya çekilme etti ya da ettirildi. Her ne kadar toplumsal medyada Sutskever’in YZ sisteminin “insanlığı yok edeceği” şeklinde korkulu bir senaryoya şahit olduğu şeklinde söylemler türemiş olsa da, şirkete yakın kaynakların güvenlik hakkında kaygı taşıyan çalışanların, CEO Altman’a bu mevzuda olan inançlarını yitirmeleri bu ayrılışların sebebi olarak görülüyor.
Doğal işten çıkanların bu mevzu hakkında konuşamadığı da biliniyor, zira şirket ayrılanlarla antak kalma imzalıyor ve kamuoyuna açık şekilde konuşmalarının önünü kesiyor. Anlaşmaya yanaşmayanlar da milyonlarca dolarlık alacaklarını şirkete bırakmış oluyorlar.
Sadece bu anlaşmayı imzalamayan adlar de yok değil. OpenAI’a 2022’de katılan ve geçtiğimiz ay şirketten ayrılan Daniel Kokotajlo, güvenlik mevzusundaki endişelerini şu şekilde dile getiriyor:
“OpenAI, sonunda insan zekasını tümüyle aşmak amacıyla her zamankinden daha kuvvetli suni zeka sistemlerini eğitiyor. Bu, insanlığın başına gelen en iyi şey olabilir fakat dikkatli davranmazsak en kötüsü de olabilir. OpenAI’nin AGI’ye ulaşmaya yaklaştıkça daha görevli davranacağına dair büyük bir umutla katıldım. Bunun gerçekleşmeyeceği birçoğumuz için yavaş yavaş netleşmeye başladı. OpenAI liderliğine ve AGI’yi görevli bir halde ele alma becerilerine olan güvenimi yavaş yavaş kaybettim, bu yüzden ayrıldım.”
Geçtiğimiz cuma günü X üstünden (eski adıyla Twitter) bir grup tweet atan Leike, kamuoyuna niçin ayrıldığıyla ilgili çeşitli ipuçları verdi.
“Bir süredir OpenAI liderliğiyle firmanın temel öncelikleri mevzusunda ihtilaf yaşadığını” ve “kırılma noktasına” ulaştığını iddia eeden Leike, firmanın “güvenlik, seyretme, hazırlıklılık, güvenlik, düşmana karşı sağlamlık, (süper) uyum, gizlilik, toplumsal tesir ve ilgili mevzulara” daha çok odaklanması icap ettiğini düşündüğünü belirtti.
Leike, OpenAI’nin büyük bir mesuliyet taşıdığını düşünüyor ve şu şekilde diyor: “İnsandan daha akıllı makineler inşa etmek doğası gereği tehlikeli bir çabadır.” Leike’ye bakılırsa bu durum, “geçtiğimiz yıllarda güvenlik kültürü ve süreçlerinin parlak ürünlerin arkasında kalmasını” potansiyel olarak daha da ürkütücü hale getiriyor.
Leike’nin, AGI olarak da malum suni genel zekâya – kolay LLM benzeri yeteneklerin fazlaca ötesinde, bilgiyi hakikaten insanoğlu şeklinde işleyen sistemlere – yönelik emek harcama mevzusundaki firmanın anlattıklarını ciddiye almış olduğu anlaşılıyor. Leike, “AGI’nin neticelerini ciddiye alma mevzusunda inanılmaz derecede geciktik,” diye yazdı. “Elimizden geldiğince bunlara hazırlanmaya öncelik vermeliyiz. Sadece o vakit AGI’nin tüm insanlığa yarar sağlamasını temin edebiliriz.”
Leike’ye bakılırsa OpenAI’nin “güvenlik öncelikli bir AGI şirketi haline gelmesi” icap ettiğini söylemiş oldu ve geride kalan çalışanlarını “inşa ettiğiniz şeye uygun ciddiyetle hareket etmeye” çağırdı.
Bu ayrılış, OpenAI’nin YZ güvenliğine olan bağlılığı yada eksikliği mevzusunda esasen yaygın olan kamuoyu endişesini daha da artıracağa benziyor Sadece öteki eleştirmenler, YZ’nin sözde çok önemli gücü çevresinde korku tellallığı yapmanın, hala büyük seviyede kanıtlanmamış bu teknoloji için bir tür pazarlama planı olduğu yönünde yorum yapıyor.
CEO Sam Altman tüm bunların sebebi mi?
Altman’ın geçtiğimiz dönemde şirketten kovulmasına verdiği tepki karakteriyle ilgili bir şeyi ortaya çıkarmış şeklinde duruyor: Yönetim kurulu kendisini tekrardan işe almazsa OpenAI’nin içini boşaltmakla tehdit etmesi ve yönetim kurulunu kendi lehinde oy verecek yeni üyelerle doldurma ısrarı, gücü elinde tutma ve gelecekteki kontrollerden kaçınma kararlılığını gösteriyor. Eski meslektaşları ve çalışanları onu ağzından çıkanı kulağı duymayan bir manipülatör olarak tanımlıyor. Mesela, güvenliğe öncelik vermek istediğini iddia ederken, tamamen bunun aksi şekilde davranan biri şeklinde.
Mesela Altman, Suudi Arabistan şeklinde otokratik rejimlerle para biriktirerek yeni bir suni zeka çipi üreten şirket kurdu ve bu sayede son olarak teknolojiye haiz suni zekayı inşa etmek için ihtiyaç duyulan kaynakların büyük bir kısmını elde etti. Bu, güvenliğe ehemmiyet veren çalışanlar için kaygı vericiydi. Eğer Altman YZ’nin mümkün olan en güvenli şekilde inşa edilmesini ve kullanılmasını hakikaten önemsiyorsa, niçin yalnız teknolojiyi hızlandıracak olan mümkün olduğunca fazlaca sayıda çip üretmek için çılgınca bir koşuşturma içinde görünüyor? Bu açıdan bakıldığında Altman, niçin YZ’yi dijital nezarete yada insan hakları ihlallerini çoğaltmak için kullanabilecek rejimlerle emek harcayarak güvenlik riskini göze alıyor?
İşte çalışanlar için tamamı, firmanın de hamlelerine olan itimatı ortadan kaldırmış şeklinde görünüyor. İstifalar ve ayrılıkların da sebebinin bu güvensizlik olduğu düşünülüyor.
Peki ya şimdi güvenlik mevzusu ne olacak?
Güvenlik ekibinin mühim isimlerinin şirketten ayrılmasının peşinden ekipte çok da fazla fazla çalışan kalmadı. Şu an firmanın kurucularından John Schulman bu “superalignment” ekibinin başlangıcında içeriyor. Sadece Schulman’ın eli, OpenAI’ın halihazırdaki ürünlerinin güvenliği mevzularıyla dolu. Geleceğe yönelik yapılacak çalışmalara da ne kadar katkı sağlayabileceği sual işareti.
Öyleki ki, ekip tam gücüyle çalışırken bile, OpenAI araştırmacılarının yalnız ufak bir kısmı bu ekibin hizmetine sunulmuşken, işlem gücünün de yalnız yüzde 20’si bu ekibe sağlanıyordu. Şimdiyse bu işlem gücünün öteki OpenAI ekiplerine aktarılacağı düşünülüyor.
Doğal ki bu durum, halihazırda kullanıcılara sunulan GPT-4o şeklinde büyük dil modellerinin “insanlığı yok etmesi” şeklinde sonuçlara yol açacak değil. Sadece OpenAI’ın bu hızla gelişen “suni zeka devrimi”ni denetim etmeye ehemmiyet göstermemesinin neticeleri, çoğumuz için büyük problemler yaratabilme potansiyeline de haiz.
Mike Pearl’ün haberini Özgür Yıldız Türkçeleştirdi.