Bu yıl Air Canada, bir yapay zeka sohbet robotu tarafından tam fiyatlı uçak biletleri satın alması yönünde yanıltılan ve şirketin vefat politikası uyarınca biletlerin daha sonra iade edileceğine dair güvence verilen bir müşteriye karşı açılan davayı kaybetti. Havayolu, botun “kendi eylemlerinden sorumlu” olduğunu iddia etmeye çalıştı. Bu iddia mahkeme tarafından reddedildi ve şirket yalnızca tazminat ödemek zorunda kalmadı, aynı zamanda kendisini durumdan uzaklaştırmaya çalıştığı için kamuoyunun eleştirilerine de maruz kaldı. Kontrolümüz dışında hatalar yapsalar bile şirketlerin yapay zeka modellerinden sorumlu olduğu açıktır.
Hızla ilerleyen yapay zeka dünyasına ve özellikle üretken yapay zekaya işletmeler tarafından hem hayranlık hem de endişe karışımı bir gözle bakılıyor. İki ucu keskin bir kılıç olarak görülen yapay zeka, verimliliği hızlandırma gücüne sahip, daha azıyla çok daha fazlasını yapmanıza olanak tanıyan bir katalizör olarak görülüyor; ancak müşteri memnuniyetsizliğinden davalara kadar çeşitli sorunlara yol açabilecek karışıklıklar var.
Bu, popüler olarak ‘Yapay Zeka halüsinasyonları’ olarak bilinen veya bir Yapay Zeka modelinin yanlış, alakasız veya anlamsız cevaplar vermesidir.
“Neyse ki bu çok yaygın bir sorun değil. Bu, üst uçta zamanın yalnızca %2 ila belki %10’u arasında gerçekleşir. Ancak yine de iş ortamında çok tehlikeli olabilir. VDS2024’te bir konuşma yapacak olan yapay zeka uzmanı Amr Awadallah, “Bir yapay zeka sisteminden bir hastaya teşhis koymasını veya bir uçağı indirmesini istediğinizi hayal edin” diyor. Gen-AI İşi Nasıl Dönüştürüyor ve Tuzaklardan Kaçınıyor.
TNW Konferansı 2025 – 19-20 Haziran 2025’te NDSM’ye dönüş – Tarihi kaydedin!
İnanılmaz 2024 edisyonumuzu tamamlarken, 2025’te Amsterdam NDSM’ye döndüğümüzü duyurmaktan mutluluk duyuyoruz. Şimdi kaydolun!
Ancak çoğu yapay zeka uzmanı bu terimden hoşlanmıyor. Terminoloji ve bunun arkasında yatan şey, yani bu olayların nasıl gerçekleştiğine dair yanlış anlamamız, potansiyel olarak gelecekte dalga etkisi yaratacak tuzaklara yol açabilir.
Yahoo!’da Ürün Zekası Mühendisliği’nin eski Başkan Yardımcısı olarak görev yaptı. ve Google Cloud Geliştirici İlişkileri Başkan Yardımcısı olan Awadallah, kariyeri boyunca teknolojinin geliştiğini gördü ve o zamandan beri şirketlerin arama alaka düzeyinin sağlayabileceği avantajlardan yararlanmasına yardımcı olmak amacıyla doğal dil işleme için yapay zeka ve sinir ağı teknolojilerini kullanmaya odaklanan bir şirket olan Vectara’yı kurdu. .
Bu terimin neden bu kadar tartışmalı olduğu, işletmelerin ‘Yapay Zeka halüsinasyonları’ hakkında neleri anlaması gerektiği ve bunların çözülüp çözülemeyeceği konusunda netlik kazanmak için kendisiyle konuştuk.
Halüsinasyon terimini kullanmak, bir yapay zeka modelinin yanlış bilgi sağladığında, orada olmayan bir şeyi gördüğü veya hissettiği anlamına gelir. Ancak bu modelleri faaliyete geçiren kodun arkasında olup biten bu değil.
Biz insanlar olarak bu tür tuzağa düşmemiz çok yaygındır. Antropomorfizm veya insan özelliklerini, duygularını veya niyetlerini insan olmayan varlıklara atfetme konusundaki doğuştan gelen eğilim, bilinmeyeni insan merceğinden görerek onunla boğuşmak için kullandığımız bir mekanizmadır. Eski Yunanlılar bunu tanrılara insani özellikler atfetmek için kullandılar; bugün bunu büyük ihtimalle evcil hayvanlarımızın hareketlerini yorumlamak için kullanıyoruz.
Yapay zeka toplumumuzda çok kısa sürede çok yaygın hale gelen bir teknoloji olduğu için bu tuzağa düşmemiz gibi özel bir tehlike var, ancak çok az insan bunun ne olduğunu ve nasıl çalıştığını gerçekten anlıyor. Zihnimizin bu kadar karmaşık bir konuyu anlaması için kısayolları kullanırız.
“Medyanın bunda büyük bir rol oynadığını düşünüyorum çünkü bu, heyecan yaratan çekici bir terim. Böylece onu benimsediler ve artık bu bizim ona atıfta bulunmamızın standart yolu haline geldi” diyor Awadallah.
Ancak hayvanlar aleminde kuyruk sallamanın dost canlısı olduğunu varsaymak gibi, yapay zekanın verdiği çıktıları yanlış yorumlamak da bizi yanlış yola sürükleyebilir.
“Gerçekten yapay zekaya olduğundan daha fazlasını atfediyoruz. Bizim düşündüğümüz gibi düşünmüyor. Yaptığı tek şey, daha önce söylenen tüm kelimelerin ardından bir sonraki kelimenin ne olması gerektiğini tahmin etmeye çalışmak,” diye açıklıyor Awadallah.
Eğer bu olaya bir isim vermek zorunda olsaydı, buna ‘konuşma’ adını verirdi. Konfabülasyonlar esas olarak, yanlış olsa bile bilginin güvenilir görünmesini sağlayacak şekilde boşlukları dolduran kelimelerin veya cümlelerin eklenmesidir.
“(Yapay zeka modelleri) her türlü soruyu yanıtlamaya oldukça teşvik ediliyor. Awadallah, “Sana ‘Bilmiyorum’ demek istemiyor” diyor.
Buradaki tehlike, saçmalık sınırında oldukları için bazı dedikoduların tespit edilmesi kolay olmasına rağmen, çoğu zaman bir yapay zekanın oldukça inandırıcı bilgiler sunmasıdır. Üretkenliği artırmamıza yardımcı olması için yapay zekaya ne kadar güvenmeye başlarsak, onların görünüşte inandırıcı olan yanıtlarını da o kadar gerçek anlamda değerlendirebiliriz. Bu, şirketlerin bir yapay zekanın tamamladığı her göreve insan gözetimini dahil etme konusunda dikkatli olmaları, daha az değil daha fazla zaman ve kaynak ayırmaları gerektiği anlamına gelir.
Bir yapay zeka modelinin sağladığı yanıtlar yalnızca erişebildiği veriler ve isteminizin kapsamı kadar iyidir. Yapay zeka, mantık yürütmek yerine eğitim verileri içindeki kalıplara dayandığından, yanıtları, elindeki eğitim verilerine (bu bilginin yanlış olup olmadığına veya söz konusu sorguya ilişkin çok az veriye sahip olup olmadığına) bağlı olarak hatalı olabilir veya verilen yanıtlara bağlı olabilir. sorgunuzun veya görevinizin niteliği ve bağlamı. Örneğin kültürel bağlam, aynı sorguya farklı bakış açıları ve yanıtlarla sonuçlanabilir.
Dar alan bilgi sistemleri veya bir işletmenin dahili sistemi gibi belirli bir veri kümesi içindeki bilgileri almak için oluşturulan dahili yapay zeka modelleri durumunda, bir yapay zeka yalnızca belirli bir miktarda bellek için alana sahip olacaktır. Bu, bir insanın tutabileceğinden çok daha büyük bir hafıza miktarı olmasına rağmen, sınırsız değildir. Ona hafızasının ötesinde sorular sorduğunuzda, sonraki kelimelerin ne olabileceğini tahmin ederek cevap vermeye teşvik edilecektir.
‘Konfabulasyonların’ çözülüp çözülemeyeceği konusunda çok fazla konuşma yapıldı.
Awadallah ve Vectara’daki ekibi, dar alanlı bilgi sistemlerindeki kafa karışıklığıyla mücadele etmek için bir yöntem geliştiriyor. Bunu yapmanın yolu, diğer yapay zeka modellerinin çıktılarını kontrol etmek gibi özel bir görevi olan bir yapay zeka modeli oluşturmaktır. Bu, Alma Artırılmış Üretim (RAG) olarak bilinir.
Tabii ki Awadallah, tıpkı insan teyitçilerinde olduğu gibi, bir şeyin yapay zeka teyitçisinin gözünden kaçma ihtimalinin her zaman bulunduğunu kabul ediyor, buna yanlış negatif deniyor.
Dünya çapındaki ağın geniş bir alanı boyunca herhangi bir konu hakkında bilgi almak için oluşturulmuş ChatGPT gibi açık alan yapay zeka modelleri için, konfabulasyonlarla uğraşmak biraz daha zordur. Son zamanlarda bazı araştırmacılar, yapay zekanın yanlış bilgilerini tespit etmek için “anlamsal entropinin” kullanımına ilişkin ümit verici bir makale yayınladılar. Bu yöntem, bir yapay zekaya aynı soruyu birden çok kez sormayı ve yanıtların ne kadar farklı olduğuna bağlı olarak bir puan atamayı içerir.
Yapay Zeka ile ilgili kafa karıştırıcı dedikoduları ortadan kaldırmaya giderek yaklaştıkça, dikkate alınması gereken ilginç bir soru şudur: Yapay Zekanın gerçeklere dayalı ve her zaman %100 doğru olmasını gerçekten istiyor muyuz? Yanıtlarını sınırlamak aynı zamanda onları yaratıcı görevler için kullanma yeteneğimizi de sınırlayabilir mi?
23-24 Ekim tarihleri arasında Valensiya’da gerçekleşecek VDS2024’te işletmelerin risklerden kaçınırken üretken yapay zekanın gücünden nasıl yararlanabilecekleri hakkında daha fazla bilgi edinmek için VDS’nin yedinci edisyonunda Amr Awadallah’a katılın.