Google’ın yeni robotları artık büyük dil modellerine erişebildikleri için karmaşık talimatlara ihtiyaç duymuyor.
Google , AI öğrenme modeli Robotic Transformer’ın (RT-2) piyasaya sürülmesiyle robotlarını daha akıllı hale getirmek istiyor .
RT-2, şirketin vizyon-dil-eylem (VLA) modeli olarak adlandırdığı modelin yeni versiyonudur. Model, robotlara talimatları yorumlamak ve istek için hangi nesnelerin en iyi sonucu verdiğini anlamak için görsel ve dil kalıplarını daha iyi tanımayı öğretir.
İlginizi Çekebilir: Yapay Zeka Cinsel İlişkiye Girebilir! Eski Google Yöneticisinden Şok Açıklama!
Araştırmacılar, RT-2’yi bir mutfak ofisi ortamında bir robotik kolla test ettiler ve robotik kolundan neyin iyi bir doğaçlama çekici olduğuna karar vermesini (bu bir kayaydı) ve bitkin bir kişiye vermek için bir içecek seçmesini (bir Red Bull) istedi. Ayrıca robota bir Kola kutusunu Taylor Swift’in bir resmine taşımasını söylediler. Robot bir Swiftie ve bu insanlık için iyi bir haber.
Şirket bir makalesinde , web ve robotik veriler üzerinde eğitilen yeni modelin, Google’ın kendi Bard’ı gibi büyük dil modellerindeki araştırma ilerlemelerinden yararlandığını ve bunu robotik verilerle (hangi eklemlerin hareket ettirileceği gibi) birleştirdiğini söyledi . İngilizce dışındaki dillerdeki yönergeleri de anlar.
Yıllardır araştırmacılar, gerçek hayattaki bir ortamda nasıl var olunacağını gidermek için robotlara daha iyi çıkarımlar aşılamaya çalıştılar. The Verge’den James Vincent, gerçek hayatın tavizsiz bir şekilde dağınık olduğuna dikkat çekti . Robotlar, sadece insanlar için basit bir şey yapmak için daha fazla talimata ihtiyaç duyar. Örneğin, dökülen bir içeceği temizlemek. İnsanlar içgüdüsel olarak ne yapacaklarını bilirler: bardağı alın, pisliği temizlemek için bir şey alın, onu atın ve bir dahaki sefere dikkatli olun.
Önceden, bir robota öğretmek uzun zaman alıyordu. Araştırmacılar, yönergeleri bireysel olarak programlamak zorunda kaldı. Ancak RT-2 gibi VLA modellerinin gücüyle robotlar, daha sonra ne yapacaklarını anlamak için daha geniş bir bilgi kümesine erişebilir.
Google’ın daha akıllı robotlara ilk girişi, geçen yıl LLM PaLM’yi robotikte kullanacağını duyurduğunda başladı ve LLM’yi fiziksel robotikle entegre etmek için garip bir şekilde adlandırılan PaLM-SayCan sistemini yarattı.
Google’ın yeni robotu mükemmel değil. New York Times, robotun canlı bir demosunu gördü ve soda tatlarını yanlış tanımladığını ve meyveyi beyaz renk olarak yanlış tanımladığını bildirdi.
Ne tür bir insan olduğunuza bağlı olarak, bu haber ya hoş karşılanır ya da size Black Mirror’daki ( Boston Dynamics robotlarından etkilenen ) korkunç robot köpekleri hatırlatır . Her iki durumda da, gelecek yıl daha da akıllı bir robot beklemeliyiz. Minimum talimatla bir döküntüyü bile temizleyebilir.