Vikipedi, dünyanın en çok ziyaret edilen web sitelerinden biridir ve uzun süredir İnternet’teki en önemli referans çalışması olmuştur. Şu anda tüm dillerde 60 milyondan fazla giriş her zaman gönüllüler tarafından yazılıyor ve güncelleniyor, bu da başlangıçta sözlük hakkında birçok şüpheye yol açtı.
Ancak gönüllülere güvenmek yıllar geçtikçe Wikipedia’nın temel direklerinden biri haline geldi. Wikipedia’nın sahibi olan Wikimedia Vakfı’nın makine öğrenimi direktörü Chris Albon, “Wikipedia’ya olan güven, Wikipedia’nın kullanımı ve Wikipedia’dan keyif alınması gönüllülerin çalışmaları sayesindedir” dedi. Albon, ORF ile yaptığı röportajda, normal bir işi olan kişilerin önce çocuklarını yatırdığını, ardından makaleleri genişletip doğruluğunu kontrol ettiğini söyledi.
Ancak artık Vikipedi makalelerini oluşturma ve düzenlemeyle ilgilenen yalnızca insanlar değil: Yapay zeka sohbet robotları çağında bazı kullanıcılar görünüşe göre ChatGPT gibi araçlara güveniyor. Bu, ChatGPT’nin “son bilgi güncellemem itibariyle” gibi kullanmayı sevdiği formülasyonlarda görülebilir. Ancak bu tür düzenlemeleri bulmak her zaman o kadar kolay olmuyor.
Ancak bu tür değişikliklerin ciddi sonuçları olabilir: Vikipedi’nin en önemli ilkesi, bir makaledeki her iddianın en az bir doğrulanabilir kanıta sahip olması gerektiğidir. Yapay zeka sohbet robotları çağında tam da bu bir zorluk haline geliyor. Örneğin, ChatGPT’ye belirli bir konu hakkında soru sorarsanız bilgi alırsınız; ancak yapay zekanın yanıtı ne kadar ikna edici olursa olsun kulağa gelse bile bunun doğru olup olmadığı tamamen belirsizdir. Belirli kaynakları sorarsanız bunlar tamamen uydurma da olabilir.
TU Viyana’dan Sabine Köszegi’nin ORF’ye söylediği gibi üretken yapay zekanın bu “halüsinasyonu” kontrol altına alınamaz. Yönetim Bilimleri Enstitüsü başkanına göre ChatGPT’nin arkasındaki dil modelleri ve Claude gibi rakipler olasılık hesaplamalarına dayanıyor – Köszegi’ye göre bu tür yapay zeka modellerinin önemli ölçüde daha iyi hale geleceği umudu “yanlış”.
Vikipedi’de yapay zeka kullanımında doğası gereği yanlış olan hiçbir şey yok: Albon’a göre, “Bir cümlenin üretken yapay zeka kullanılarak daha anlaşılır hale getirilmesi için yeniden yazılması” başlı başına bir sorun değil: “İlkelere ve kurallara uygun olduğu sürece, diğer düzenlemelerden hiçbir farkı yok.”
Çok kısa sürede çok sayıda düzenleme yapıldığında sorun olur. Yapay zeka sayesinde bu çok daha kolay hale geliyor: ikna edici görünen bilgiler ChatGPT’den Wikipedia’ya hızla kopyalanabiliyor. Çevrimiçi sözlüğe herkes katılabildiğinden, bir değişikliğin vandalizm mi, bir makaleyi kasıtlı olarak kullanılamaz hale getirme mi, yoksa ciddi bir düzenleme mi olduğunu ilk bakışta söylemek artık mümkün değil. Albon’a göre bu değişiklikler yalnızca bazen “kötü niyetli”, ancak “çoğu zaman iyi niyetli”.
Wikipedia uzmanı, çok sayıda küçük değişiklik olması durumunda bunları kontrol eden gönüllülerin hızla bunalıma gireceğini söylüyor. Albon, kendisini çevrimiçi sözlükte yapay zeka içeriği bulmaya adamış özel olarak kurulmuş grupların bu nedenle bunun “düşük kaliteli” içerik olup olmadığını mümkün olan en kısa sürede tanımlayabilmesi gerektiğini söyledi.
Burada Wikipedia ebeveyni, gönüllülerin hayatını kolaylaştırmak için yine yapay zekaya dayalı kendi çözümlerini geliştiriyor. Kurallara aykırı maddelerde yapılan değişiklikler erken aşamada tespit edilmelidir. Albon, “Gönüllüler vandalizmi tanımlamak için her düzenlemeye bakmak zorunda olmamalı” dedi.
Sorun Vikipedi için yeni değil: Albon, kullanıcıların her zaman değişiklikleri kontrol ettiğini, tartıştığını ve gerekirse kaldırdığını belirtiyor. “Wikipedia’nın başlangıcından beri bu böyle.” Yapay zekadan gelen metinlerin eklenmesi yasak değil; çünkü Vikipedi’de neye izin verildiğini ve neyin izin verilmediğini belirleyen katı kurallar dizisi, yanlış bilgilendirmeyi önlemeyi amaçlıyor. metin insanlar veya makineler tarafından yazılmıştır.
TU uzmanı Köszegi, yapay zekanın Vikipedi’nin kalitesi açısından geniş kapsamlı sonuçlara yol açabilecek başka bir yönüne dikkat çekiyor: çeşitlilik kaybı. “Çeşitlilik, iyi ve kapsamlı bilgiye ulaşmak için farklı bakış açılarını, bilgileri ve geçmişleri kullanmak anlamına gelir.” “Her zaman çok benzer, aynı içerik üreten” ChatGPT gibi üretken yapay zekanın kullanımı yoluyla “kapsamlı, geniş” çok perspektifli bilgi. ” kayıp.
Yapay zeka kullanımının “topluma zarar verdiğini, çünkü artık bu farklı bakış açılarını sorunları çözmek ve yaratıcılığımız için kullanamadığımızı” gösteren çalışmalar var. “Tek” bir gerçeğin olmadığını, farklı bakış açılarının sıklıkla tartışılması nedeniyle Vikipedi’de bu gerçeğin dikkate alındığını ve bunun makalelere yansıdığını belirtiyor.
Wikipedia, gönüllü insanlar arasındaki bu işbirliğine odaklanmaya devam etmek istiyor. Albon, bu çeşitliliğin üretken yapay zeka çağında da güvence altına alındığını düşünüyor. Çoğu zaman, ilk değişiklikten sonra daha fazla tartışma ortaya çıkar; örneğin bir makale Avrupa merkezli bir bakış açısına sahip olduğunda ve Tayland’dan bir kullanıcı tartışmaya katılıp şunları ifade ettiğinde: “Burada dahil etmemiz gereken başka bir bakış açısı daha var” dedi Albon.
Wikimedia Vakfı’ndaki yapay zeka uzmanı, özellikle incelikli konular söz konusu olduğunda insanları odak noktası olarak görüyor. Bunu “en iyi” tartışabilirler. Konu sadece siyaset değil, aynı zamanda “yıllardır” en ince detayların tartışıldığı “1950’li yılların oyuncak şirketleri” de söz konusu.
“Bunun için insanlara ihtiyacın var. Bunun için kaynaklara bakan, kaynakları farklı şekillerde okuyan, aynı soruna çok farklı açılardan bakan insanlar gerekir. Ve zamanla bilginin ne olması gerektiği konusunda fikir birliğine varırlar. Bu, insanlara bırakmak istediğimiz türden bir iş” dedi Albon.
Köszegi ayrıca insanı Vikipedi’nin vazgeçilmez bir unsuru olarak görüyor. “Hakikat mücadelesi artık sadece üniversitelerde olmuyor”, Wikipedia herkesin bu mücadeleye katılmasını sağlıyor. Şeffaf kurallar orada “sahte haber üretilmemesini” sağlıyor. Köszegi, “Onsuz yapmak zorunda kalsaydık büyük bir kayıp olurdu” dedi.