Büyük lisan modelleri ve üretken yapay zekâlar yayıldığından bu yana, yayıncılar ile yapay zekâ geliştiriciler ortasında önemli bir çaba devam ediyor. OpenAI CEO’su Sam Altman, bu tartışmaların tarafları ortasında yer alıyor ve ChatGPT gibi araçların, telifli içerikler olmadan geliştirilemeyeceğini belirtmişti.
Yakın vakitte gerçekleştirilen bir çalışmaya nazaran internetteki içeriklerin yüzde 57’sinin altında yapay zekânın imzası bulunuyor. Cambridge ve Oxford’dan araştırmacıların yaptığı çalışmaya nazaran yapay zekâya fazla yükleniliyor ve bu da içerik kalitesini düşürüyor.
Kopyasının kopyası…
Araştırmacılar, yaptıkları çalışmalarda yapay zekâ ile gelen yanıtların her seferinde daha da kalitesiz hâle geldiğini ve isabetli bilgiler veremediğini ortaya çıkardı. Oxford Üniversitesi’nden Dr. Illa Shumailov, “Model çöküşünün ne kadar süratli başladığı ve ne kadar güç fark edildiği şaşırtıcıdır. Öncelikle, az temsil edilen datalar üzere azınlık datalarını tesirler. Akabinde, çıktıların çeşitliliğini tesirler ve varyans azalır. Bazen, çoğunluk bilgilerinde küçük bir güzelleşme gözlemlenir, bu da azınlık bilgilerindeki performans düşüşünü gizler. Model çöküşü önemli sonuçlar doğurabilir.” ifadelerini kullandı.
Araştırmacılar artık sorunun nedenini ortaya çıkarmaya çalışıyor. Takıma nazaran sorunun birinci nedeni, yapay zekâyla üretilen içeriklerin denetim edilmeden paylaşılması. Elbette yapay zekânın olmayan bilgileri “uydurması”, daima olarak daha düşük kalite kopyalardan yeni kopyalar üretilmesi sorunu daha makus hâle getiriyor üzere görünüyor.