MIT’nin Bilgisayar Bilimi ve Yapay Zeka Laboratuvarı (CSAIL),
KUKA isimli robot kola eklediği GelSight isimli dokunsal sensör sayesinde yapay
zekaya görsel ve dokunsal bilgi arasındaki ilişkiyi öğretmeyi başardı.
Araştırma ekibi yapay zekaya nesneleri dokunarak nasıl
tanımlayabileceğini öğretmek için kumaş, tamir aletleri ve ev eşyaları gibi 200
nesneye ait 12.000 videoyu kayıt altına aldı. Videolar durağan görüntülere bölündü
ve ortaya çıkan veri yapay zekanın dokunsal ve görsel verileri bir araya getirilmesi
için kullanıldı.
Sistem üzerinde çalışan araştırmacılardan Yunzhu Li,
üzerinde çalıştıkları prototip robot kolun dokunduğu yüzeyin yapısına göre
keskin veya düz olduğunu hissedebildiğini açıklıyor. Görme duyusunu, hissetme
duyusuyla bir araya getiren bilim insanları, nesneleri tanımlama konusunda
robotu güçlendirebileceklerini, böylelikle nesneleri kavramayı ve manipüle
etmeyi gerektiren görevlerde ihtiyaç duyulan verinin azaltılabileceğini öngörüyor.
Gelişmenin robot teknolojileri açısından önemini vurgulayan
araştırmacılar, robot kolun zamanla bir fincanı nasıl ve hangi açıdan tutması
gerektiği gibi konuları kavrayabileceği, yumuşak ve sert objeleri birbirinden ayırt
edebileceğini söylüyor.
Şu an için robot sadece test ortamında nesneleri
tanımlayabiliyor. Bir sonraki adım, robotun daha farklı görevleri yerine
getirebilmesi için yeterli veri tabanını sağlamak.