amerika gazete haberleri haberler
Yaşam

Bir Yapay Zeka Takım Arkadaşının Tahminlerine Ne Zaman Güvenilmeli?

Araştırmacılar, çalışanların yapay zeka sistemleriyle işbirliği yapmasına yardımcı olacak bir yöntem geliştirdi.

Yoğun bir hastanede, bir radyolog, hastaların röntgen görüntülerine dayanarak tıbbi durumları teşhis etmesine yardımcı olmak için bir yapay zeka sistemi kullanıyor. Yapay zeka sistemini kullanmak daha hızlı teşhis koymasına yardımcı olabilir, ancak yapay zekanın tahminlerine ne zaman güveneceğini nasıl bilebilir?

O yapmaz. Bunun yerine, bir tahminde bulunmak için uzmanlığına, sistemin kendisi tarafından sağlanan bir güven düzeyine veya algoritmanın tahminini nasıl yaptığına ilişkin bir açıklamaya -ki bu inandırıcı görünse de yine de yanlış olabilir- güvenebilir.

İnsanların bir yapay zeka “takım arkadaşına” ne zaman güveneceklerini daha iyi anlamalarına yardımcı olmak için MIT araştırmacıları, bir makinenin doğru tahminlerde bulunduğu ve yanlış tahminlerde bulunduğu durumlar hakkında daha doğru bir anlayış geliştirmeleri için insanları yönlendiren bir işe alıştırma tekniği geliştirdi.

Eğitim tekniği, insanlara AI’nın yeteneklerini nasıl tamamladığını göstererek, insanların AI ajanlarıyla çalışırken daha iyi kararlar almasına veya daha hızlı sonuçlara varmasına yardımcı olabilir.

Bilgisayar Bilimi ve Yapay Zeka Klinik Makine Öğrenimi Grubu’nda yüksek lisans öğrencisi olan Hussein Mozannar, “İnsanları yavaş yavaş bu AI modeliyle tanıştırdığımız bir öğretim aşaması öneriyoruz, böylece kendileri için zayıf ve güçlü yanlarını görebilirler” diyor. Laboratuvar (CSAIL) ve Tıp Mühendisliği ve Bilimi Enstitüsü. “Bunu, insanın yapay zeka ile pratikte nasıl etkileşime gireceğini taklit ederek yapıyoruz, ancak yapay zeka ile yaptıkları her etkileşimi anlamalarına yardımcı olmak için onlara geri bildirim vermek için müdahale ediyoruz.”

Mozannar makaleyi, CSAIL’de Görselleştirme Grubunu yöneten bilgisayar bilimi yardımcı doçenti Arvind Satyanarayan ile birlikte yazdı; ve MIT’de elektrik mühendisliği ve bilgisayar bilimi doçenti ve Clinical Machine Learning Group lideri olan kıdemli yazar David Sontag. Araştırma, Şubat ayında Yapay Zekayı Geliştirme Derneği’nde sunulacak.

Zihinsel modeller
Bu çalışma, insanların başkaları hakkında oluşturdukları zihinsel modellere odaklanmaktadır. Radyolog bir vakadan emin değilse, belirli bir alanda uzman olan bir meslektaşına sorabilir. Geçmiş deneyimlerinden ve bu meslektaşıyla ilgili bilgisinden, tavsiyelerini değerlendirmek için kullandığı güçlü ve zayıf yönlerine ilişkin zihinsel bir modele sahiptir.

Mozannar, insanların AI ajanlarıyla etkileşime girdiklerinde aynı tür zihinsel modeller oluşturduğunu, bu nedenle bu modellerin doğru olmasının önemli olduğunu söylüyor. Bilişsel bilim, insanların geçmiş etkileşimleri ve deneyimleri hatırlayarak karmaşık görevler için kararlar aldıklarını öne sürüyor. Bu nedenle, araştırmacılar, insanın gelecekte yararlanabileceği referans noktaları olarak hizmet eden, insan ve yapay zekanın birlikte çalışmasının temsili örneklerini sağlayan bir işe alım süreci tasarladılar. İnsanlara yapay zekayı en iyi şekilde öğretecek örnekleri tanımlayabilen bir algoritma oluşturarak başladılar.

Mozannar, “Önce bir insan uzmanın, AI tarafından yönlendirilmeyen geçmiş kararlarının gözlemlerini kullanarak önyargılarını ve güçlü yanlarını öğreniyoruz” diyor. “İnsanın yapay zekaya güvenmesinin nerede faydalı olacağını görmek için insan hakkındaki bilgimizi yapay zeka hakkında bildiklerimizle birleştiriyoruz. Ardından, insanın yapay zekaya güvenmesi gerektiğini bildiğimiz durumları ve insanın yapay zekaya güvenmemesi gereken benzer durumları elde ederiz.”

Araştırmacılar, alıştırma tekniklerini pasaja dayalı bir soru cevaplama görevi üzerinde test etti: Kullanıcı, yazılı bir pasaj ve cevabı pasajda yer alan bir soru alır. Kullanıcı daha sonra soruyu yanıtlamak zorundadır ve “AI’nın yanıtlamasına izin vermek” için bir düğmeyi tıklayabilir. Kullanıcı AI cevabını önceden göremez, ancak bu onların AI’nın zihinsel modeline güvenmelerini gerektirir. Geliştirdikleri işe alıştırma süreci, yapay zeka sistemi yardımıyla bir tahminde bulunmaya çalışan kullanıcıya bu örnekleri göstererek başlıyor. İnsan doğru veya yanlış olabilir ve AI doğru veya yanlış olabilir, ancak her iki durumda da, örneği çözdükten sonra, kullanıcı doğru cevabı ve AI’nın neden tahminini seçtiğine dair bir açıklama görür. Kullanıcının örnekten genelleme yapmasına yardımcı olmak için,

Örneğin, belki de eğitim sorusu, bir botanik ders kitabından dolambaçlı bir paragrafa dayanarak iki bitkiden hangisinin daha fazla kıtaya özgü olduğunu soruyor. İnsan kendi başına cevap verebilir veya AI sisteminin cevap vermesine izin verebilir. Ardından, yapay zekanın yeteneklerini daha iyi anlamasına yardımcı olan iki takip örneği görür. Belki de AI, meyvelerle ilgili bir takip sorusunda yanlış ama jeoloji ile ilgili bir soruda haklıdır. Her örnekte, sistemin tahminini yapmak için kullandığı kelimeler vurgulanmıştır. Mozannar, vurgulanan kelimeleri görmenin, insanın AI aracısının sınırlarını anlamasına yardımcı olduğunu açıklıyor.

Kullanıcının öğrendiklerini aklında tutmasına yardımcı olmak için, kullanıcı bu öğretim örneğinden çıkardığı kuralı yazar, örneğin “Bu yapay zeka çiçekleri tahmin etmede iyi değil.” Daha sonra temsilci ile uygulamada çalışırken bu kurallara başvurabilir. Bu kurallar aynı zamanda kullanıcının zihinsel yapay zeka modelinin resmileştirilmesini de oluşturur.

öğretimin etkisi
Araştırmacılar bu öğretim tekniğini üç katılımcı grubuyla test etti. Bir grup tüm alıştırma tekniğinden geçti, başka bir grup takip eden karşılaştırma örneklerini almadı ve temel grup herhangi bir öğretim almadı ancak AI’nın cevabını önceden görebildi.

“Öğretim alan katılımcılar, eğitim almayan ancak AI’nın cevabını görebilen katılımcılar kadar başarılı oldular. Sonuç olarak, AI’nın cevabını sanki görmüşler gibi simüle edebiliyorlar, ”diyor Mozannar.

Araştırmacılar, bireysel katılımcıların yazdığı kuralları görmek için verilerin daha derinlerine indi. Eğitim alan kişilerin neredeyse yüzde 50’sinin AI’nın yetenekleri hakkında doğru dersler yazdığını buldular. Örneklerin yüzde 63’ünde doğru dersi olanlar haklı çıkarken, doğru dersi olmayanlar yüzde 54’ünde haklı çıktı. Ve eğitim almayan ancak AI cevaplarını görebilenler, soruların yüzde 57’sinde haklıydı.

“Öğretim başarılı olduğunda, önemli bir etkisi vardır. Buradaki paket servis budur. Katılımcılara etkili bir şekilde öğretebildiğimizde, onlara cevabı gerçekten vermiş olmanızdan daha iyisini yapabilirler” diyor.

Ancak sonuçlar aynı zamanda hala bir boşluk olduğunu da gösteriyor. Eğitilenlerin yalnızca yüzde 50’si, AI’nın doğru zihinsel modellerini oluşturdu ve yapanlar bile zamanın yalnızca yüzde 63’ü haklıydı. Mozannar, doğru dersler almalarına rağmen her zaman kendi kurallarına uymadıklarını söylüyor.

Bu, araştırmacıları kafalarını kaşıyan bir sorudur – insanlar yapay zekanın doğru olması gerektiğini bilseler bile, neden kendi zihinsel modellerini dinlemiyorlar? Bu soruyu gelecekte araştırmak ve aynı zamanda, gereken süreyi azaltmak için işe alım sürecini iyileştirmek istiyorlar. Ayrıca, özellikle sağlık hizmetleri ortamlarında, daha karmaşık AI modelleriyle kullanıcı çalışmaları yürütmekle de ilgileniyorlar.

İlgili Makaleler

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu
İstanbul evden eve nakliyat izmir dijital ajans dijital pazarlama