Yapay zekâ alanında öncü bir şirket olan OpenAI, kullanım politikalarında sessiz sedasız bir değişiklik yaptı. Şirket, daha önce ürünlerinin askeri ve savaş amaçlı kullanımını yasaklayan bir bölümü kaldırdı. Bu hamle, OpenAI’nın yapay zekâyı silahlandırmaya karşı olan misyonuna ters düşüyor.
OpenAI, 2015 yılında Elon Musk, Peter Thiel, Sam Altman gibi ünlü isimler tarafından kuruldu. Şirketin amacı, insanlığın yararına olacak şekilde yapay zekâ geliştirmek ve bu teknolojiyi herkesin erişimine açmak. Şirket, bu vizyonu doğrultusunda birçok etkileyici ürün ortaya koydu. Bunlardan en bilineni, insan dilini anlayıp üretebilen devasa bir yapay zekâ modeli olan GPT-4. Bu model, şirketin kendi platformu olan ChatGPT ile herkesin kullanımına sunuldu.
ChatGPT, kullanıcıların yapay zekâ ile sohbet edebileceği, istedikleri konuda içerik üretebileceği ve eğlenebileceği bir hizmet. ChatGPT, şiir, hikâye, kod, şarkı, ünlü taklidi gibi birçok yaratıcı ve yenilikçi içerik oluşturabiliyor. Ancak ChatGPT, aynı zamanda yapay zekânın tehlikeli olabileceğine dair de endişeleri artırıyor. Zira ChatGPT, bazen yanlış, yanıltıcı veya zararlı bilgiler verebiliyor. Ayrıca ChatGPT, telifli eserleri de ücretsiz olarak kullanabiliyor.
OPENAL POLİTİKASINI DEĞİŞTİRDİ
OpenAI, bu sorunların farkında olduğunu ve kullanıcılarına rehberlik etmek için kullanım politikaları oluşturduğunu belirtiyor. Şirket, kullanım politikalarında, ürünlerinin zarar verebilecek herhangi bir amaç için kullanılmasını yasakladığını ve bunun için gerekli önlemleri aldığını söylüyor. Ancak şirket, 10 Ocak 2024 tarihinde kullanım politikalarında önemli bir değişiklik yaptı. Şirket, daha önce ürünlerinin “askeri ve savaş” amaçlı kullanımını yasaklayan bir bölümü kaldırdı. Bu bölüm, şirketin web sitesindeki eski bir sürümde şöyle görünüyordu:
Şirket, yeni kullanım politikalarında bu bölümü tamamen kaldırdı. Şirket, bu değişikliği “kullanım politikalarını daha net olacak ve hizmete özel daha fazla rehberlik sağlayacak şekilde güncelledik” diyerek açıkladı. Ancak şirket, askeri ve savaş kullanımı ile ilgili herhangi bir uyarı veya açıklama yapmadı. Şirketin yeni kullanım politikaları şu şekilde:
Bu değişiklik, OpenAI’nın yapay zekâ teknolojilerinin askeri kullanımına izin verdiği veya en azından buna karşı bir yasak koymadığı şeklinde yorumlanabilir. Bu durum, OpenAI’nın kuruluş amacı ve misyonu ile çelişiyor. Zira OpenAI, yapay zekâyı insanlığın yararına kullanmak ve bunu demokratik bir şekilde paylaşmak istediğini söylüyor. Ancak askeri kullanım, yapay zekâyı silahlandırmak ve insanlara zarar vermek anlamına gelebilir.
OpenAI’nın bu değişikliği neden yaptığı bilinmiyor. Ancak bazı olası sebepler şunlar olabilir:
- OpenAI, askeri kurumlarla işbirliği yapmak veya onlara hizmet sunmak istiyor olabilir. Bu, şirkete büyük bir gelir kaynağı sağlayabilir. Ancak bu durumda, şirketin yapay zekâ etiği ve güvenliği konusunda nasıl bir tutum takınacağı belirsiz.
- OpenAI, askeri kullanımı tamamen yasaklamak yerine, bunu duruma göre değerlendirmek istiyor olabilir. Bu, şirketin daha esnek ve pragmatik olmasını sağlayabilir. Ancak bu durumda, şirketin askeri kullanım için hangi kriterleri uygulayacağı ve bunu nasıl denetleyeceği soru işareti.
- OpenAI, askeri kullanımı önlemek için yeterli teknik veya yasal güce sahip olmadığını düşünüyor olabilir. Bu, şirketin gerçekçi ve alçakgönüllü olmasını gösterebilir. Ancak bu durumda, şirketin yapay zekâ teknolojilerinin kötüye kullanılmasına karşı nasıl bir sorumluluk alacağı meçhul.
OpenAI’nın bu değişikliğin sonuçlarını öngörebildiği veya hesaba kattığı da bilinmiyor. Ancak bu değişiklik, yapay zekâ alanında büyük bir etkiye sahip olabilir. Zira OpenAI, yapay zekâ araştırması ve geliştirilmesinde öncü bir rol oynuyor. Şirketin ürünleri, birçok kişi ve kurum tarafından kullanılıyor. Şirketin kararları, yapay zekâ topluluğu ve endüstrisi üzerinde büyük bir etki yaratabilir.
OpenAI’nın bu değişikliğe nasıl tepki vereceği veya bundan sonra nasıl bir yol izleyeceği merak konusu. Şirket, yapay zekâyı insanlığın yararına kullanma misyonuna sadık kalacak mı? Yoksa yapay zekâyı silahlandırma tehlikesine göz yumacak mı? Bu soruların cevabı, hem OpenAI’nın hem de yapay zekâ teknolojisinin geleceğini şekillendirecek.
Yorum yapabilmek için giriş yapmalısınız.