CHATGPT fırsat mı tehdit mi?
Yapay zekâ ve ChatGPT gibi yapay zekâ tabanlı derin
öğrenmeyi kullanan sistemler yavaş yavaş vatandaşlar tarafından kullanılmaya
başlandı. Hep altını çizmemiz gereken bir nokta var ki bu teknolojiler faydalı
gibi görünse de, kötü ellerde adeta bir tehdit durumuna dönüşebilir. Tabii artılarını da göz ardı edemeyiz. Çünkü
insan hayatını kolaylaştırdığı bir gerçek… Bir de dikkat edersek hep siyasi
arenadaki etkisi konuşuldu. Vatandaşları ya da internet kullanıcılarını
ilgilendiren boyutlarına hiç değinilmedi. Olumlu açıdan bakacak olursak, sağlık
hizmetleri, eğitim, iş dünyası, güvenlik gibi alanlarda kullanılan bu
teknolojiler, insan hayatını daha kolay hale getirebilir. Olumsuz boyutlarının
da altını çizecek olursak yapay zeka teknolojilerinin yanlış kullanımı, kişisel
gizlilik ihlalleri, yanıltıcı içeriklerin yayılması, manipülasyon gibi
problemlere yol açabilir.
Yapay zekâ ve uygulamaların kullanımının
yaygınlaşmasıyla birlikte, vatandaşlar arasında gerçek ve sahteyi ayırt etmek
de giderek zorlaşmaktadır. Yani sosyal medyada gördüğünüz bir deepfake yani
derin sahte yöntemiyle hazırlanmış bir videoyu belki bugün ayırt
edebiliyorsunuz ya da teknik açıdan üretimi zor olduğu için bu tip videoların
sayısı şu an için az… Fakat yapay zekânın kişisel kullanım alanının
genişlemesi, uygulamaların vatandaşlar tarafından kullanılması büyük sorunları
beraberinde getirecektir. Şöyle ki, mesela şu an yüz değiştirme uygulamalarını
kullanıyoruz, hatta bu uygulamaları kullanırken keyif alıyoruz. Aslında ilk
baktığımızda bu hepimize keyif veriyor. Fakat şu an yapılan çalışmalardan
bahsedecek olursak konuşturacağınız kişinin fotoğrafını ve sesini yükleyecek,
söyleyeceği ifadeleri yazacak ve saniyeler içerisinde sahte bir video
üretebileceksiniz. Hani geçmişte “gözümle görmeden inanmam” sözünü kullanırdık.
Artık gözümüzle görsek de inanmayacağımız günlere doğru gidiyoruz. Hatta durum
o kadar tehlikeli boyutlara gelecek ki, bu videolar sebebiyle arkadaşlık
ilişkileri zedelenebilecek, eşler arası çatışmalar çıkabilecek, zarar vermek
isteyen insanlar ve itibar suikastı hazırlığında olanlar yapay zekâyı adeta bir
silah olarak kullanabilecek. İnsan emeği ve özgün fikirlerin ortaya çıkışının
da zarar göreceği bir gerçek… Şimdiden yapay zekâ ve ChatGPT gibi uygulamalarla
ödevler hazırlanmakta, projeler üretilmekte, içerikler oluşturulmakta… Fakat bu
teknolojileri tespit edecek sistemler de hızla geliştiriliyor. Metinlerin
benzerlik oranlarını veren intihal programları yapay zekâ tarafından üretilen
içerikleri tespit edecek algoritmaları geliştirmeye başladı ve sistemlerine
dâhil etti.
İnsanların sosyal medya hesaplarında paylaştıkları
içeriklerden yapay zekâ kullanarak videolar üretmek, birçok soruna neden
olabilir. Özellikle bir kişinin fotoğraflarını, videolarını, seslerini alarak,
onların izni olmadan yapay zekâ tarafından üretilen videolarda kullanmak, o
kişinin mahremiyetini ihlal edebilir. Dolayısıyla insanlar kendilerini güvende
hissetmez ve belki de sosyal medya hesaplarını kapatabilir.
Aslına bakılırsa günümüzde teknolojinin gelişim
göstermesi bile işsizliğe sebep oluyorken, yapay zekânın işsizlik konusunda
olumsuz etkisinin olacağını söylemek pek de yanlış sayılmayacak. Yapay zekâ çok
karmaşık işlemleri bile yerine getirebilecek potansiyele sahip. Yapay zekâ, matematik denklemlerini
çözmekten, kod yazmaya, grafik tasarım yapmaktan, sunum hazırlamaya kadar birçok
konuda sonuç üretme yeteneği ile dikkat çekiyor. İster istemez bu durum
işsizlik sorunlarını beraberinde getirecektir. Ama şunu da söylemekte yarar
var. İnsana her zaman ihtiyaç vardır. Çünkü yapay zekâyı üreten de insan
aklının ta kendisidir. Yapay zekâ destekli müşteri hizmetleri, müşteri
memnuniyetini artırabilir. İş ortamında da birçok fayda sağlayabilir. Örnek
vermek gerekirse; yapay zekâ, insanların zamanlarını ve kaynaklarını daha
verimli bir şekilde kullanmalarına yardımcı olabilir. Karar verme ve hataların
önceden tespiti konusunda da yol gösterebilir.
Yapay zekâ sistemlerine belli parametreler
girilmekte ve verilen cevaplar bu parametrelerin işlenmesi aracılığıyla
hazırlanmaktadır. Hatırlanacak olursa sosyal medyada Snapchat’ın My AI sohbet
robotu yalan söylediği iddiasıyla ciddi eleştirilere maruz kalmıştı. Aslına
bakılırsa veri gizliliği açısından bazı cevapları bilmesine rağmen söylemediği,
fakat reklam açısından değerlendirildiğinde aslında birçok bilgiye sahip olduğu
ortaya çıkmıştı. Bu örnek bile yapay zekâya güvenmenin henüz erken olduğunu
bizlere adeta kanıtlamaktadır. Çünkü verilerin manipüle edilebilmesi söz
konusudur. Snapchat’ın My AI sohbet robotunda karşılaştığımız bu durum diğer
uygulamalarda da karşımıza çıkabilir. Yani sadece Snapchat’ı hedefe koymanın
doğru olduğunu söyleyemeyiz. Yapay zekâ teknolojisi henüz tamamen güvenilir
değildir. Veri kalitesi, öğrenme yöntemleri ve sistem tasarımı gibi faktörlerin
etkisi altındadır. Sonuçların doğruluğu için doğru eğitim, güvenilir veriler,
doğru algoritmalar ve insan onayı gereklidir. İnsan faktörü hala önemlidir ve
yapay zekâ sistemleri insanlar tarafından tasarlanmalı ve kullanılmalıdır.
Devletler bu noktada birlikte hareket etmeli, yapay
zeka kullanımını düzenlemek için net standartlar ve politikalar geliştirmeli,
yapay zekanın şeffaf ve sorumlu bir şekilde kullanımını sağlamak için gözetim
mekanizmaları ve yasal düzenlemeler oluşturmalıdır. Ayrıca, alanla ilgili
uzmanlar ve paydaşlarla iş birliği yaparak yapay zekâ hakkındaki politikaların
ve düzenlemelerin geliştirilmesinde sorumluluk üstlenmelidir. Devletler yapay
zekâ konusunda ar-ge çalışmaları yapmalı, vatandaşları yapay zekâ hakkında
eğitmek için girişimlerde bulunmalıdır. Bu adımlar, yapay zekânın toplum için
güvenli, etik ve faydalı bir şekilde geliştirilmesine yardımcı olabilir. Çünkü
yapay zekâyı kullanmak değil, doğru ve verimli sonuçlar ele almak
önemlidir. Yapay zekâyı durdurmak
günümüz koşulları altında zaten imkânsızdır.