San Francisco merkezli OpenAI'ın bir blog yazısında açıkladığı önlemler, son derece popüler olan üretken yapay zeka araçlarının kötüye kullanılmasını önlemek için mevcut politikaların ve yeni girişimlerin karışımını içeriyor. Bu araçlar saniyeler içinde yeni metinler ve görüntüler yaratabildiği gibi, yanıltıcı mesajlar ya da ikna edici sahte fotoğraflar oluşturmak için adeta bir silah olarak da kullanılabiliyor.
Bu adımlar, gelişmiş üretken yapay zeka araçları tasarlayan çok sayıda şirketten sadece biri olan OpenAI için geçerli olacak. OpenAI, "doğru oy kullanma bilgilerini öne çıkararak, ölçülü politikaları uygulayarak ve şeffaflığı geliştirerek platform güvenliği çalışmalarına devam etmeyi" planladığını söyledi.
Şirket, geliştirdiği teknolojiyi kullanarak siyasi adayları ya da hükümetleri taklit eden, oylamanın nasıl işlediğini yanlış anlatan ya da insanları oy vermekten caydıran sohbet robotları oluşturulmasını yasaklayacağını söyledi. Teknolojisinin ikna edici gücü konusunda daha fazla araştırma yapılana kadar, kullanıcılarının siyasi kampanya veya lobicilik amacıyla uygulamalar oluşturmasına izin verilmeyeceği de bildirildi.
OpenAI, "bu yılın başlarından" itibaren, DALL-E görüntü oluşturucusu kullanılarak tasarlanan yapay zeka görüntülerini dijital olarak filigranlayacağını kaydetti. Bu sayede içerik, kaynağı hakkında bilgilerle kalıcı olarak işaretlenecek ve internet üzerinde başka bir yerde görünen bir görüntünün yapay zeka aracı kullanılarak oluşturulup oluşturulmadığı daha kolay tespit edilebilecek.
Şirket ayrıca, oy kullanma hakkında lojistik sorular soran ChatGPT kullanıcılarını bu grubun partizan olmayan web sitesi CanIVote.org'daki doğru bilgilere yönlendirmek için Amerika'nın en eski partilerüstü kamu görevlileri birliği ile ortaklık yaptığını bildirdi.
New York Üniversitesi Hukuk Fakültesi bünyesindeki liberal eğilimli kamu politikaları kuruluşu Brennan Center for Justice'den demokrasi programı danışmanı Mekela Panditharatne, OpenAI'nin planlarının seçimle ilgili yanlış bilgilerle mücadelede olumlu bir adım olduğunu ancak başarı sağlanıp sağlanamamasının, bunun nasıl uygulanacağına bağlı olduğunu söyledi.
Mekela Panditharatne, "Örneğin, seçim süreciyle ilgili soruları işaretlerken filtreler ne kadar ayrıntılı ve kapsamlı olacak? Gözden kaçan öğeler olacak mı?" şeklinde sorular yöneltti.
YouTube ve Meta gibi bazı sosyal medya şirketleri yapay zeka etiketleme politikalarını uygulamaya koymuş olsa da, ihlal edenleri tutarlı bir şekilde yakalayıp yakalayamayacakları henüz belli değil.
Brooking Enstitüsü'nün Teknoloji İnovasyonu Merkezi'nden kıdemli araştırmacı Darrell West, "Diğer üretici yapay zeka firmalarının da benzer yönergeleri benimsemesi yararlı olacaktır, böylece pratik kuralların endüstri çapında uygulanması mümkün olacaktır" dedi.
Sektör genelinde bu tür politikaların gönüllü olarak benimsenmemesi halinde, siyasette yapay zeka tarafından üretilen dezenformasyonun düzenlenmesi mevzuat gerektirecek. ABD Kongresi, her iki partinin desteğine rağmen sektörün siyasetteki rolünü düzenlemeye yönelik bir yasayı henüz geçirmedi. Bu arada, ABD eyaletlerinin üçte birinden fazlası, federal mevzuat sekteye uğrarken siyasi kampanyalarda kullanılan deepfake görüntülerin oluşturduğu tehdide yanıt vermek için yasa tasarısı kabul etti veya sundu.
OpenAI CEO'su Sam Altman, şirketi tüm önlemleri almış olsa bile, içinin rahat olmadığını söyledi.