towary

Roboty mogą uczyć się od innych ludzi, pilnie i metodycznie

Ostatnie badania przeprowadzone przez Google we współpracy z ośrodkami badawczymi i firmami przyniosły ważne wyniki dotyczące uczenia maszynowego (ML), takie jak sztuczne widzenie i przetwarzanie języka naturalnego.

Zwycięskie, wspólne i wspólne podejście wykorzystuje duże i różnorodne zbiory danych oraz wyraziste modele, które mogą skutecznie absorbować wszystkie dane. Chociaż podejmowano różne próby zastosowania tego podejścia w robotyce, roboty nie wykorzystywały jeszcze wysoce wydajnych modeli, jak również w innych poddziedzinach.

Przez lata często polegaliśmy na technologii, która uzupełnia i ulepsza nasze ludzkie możliwości. Opracowaliśmy drukarki, które pomagają dzielić się informacjami, kalkulatory matematyczne, samoloty, które pomagają nam szybko się poruszać. W ostatnich latach, zwłaszcza w dziedzinie uczenia maszynowego, opracowaliśmy nowe sposoby przetwarzania informacji w celu zasilania przydatnych technologii, takich jak wyszukiwarka, asystenci, mapy i wiele innych.

Transformator

Przed 2017 rokiem systemy uczenie maszynowe starali się określić, która część ich danych wejściowych była istotna dla uzyskania prawidłowej odpowiedzi. Transformer wprowadził pojęcie uwagi: zwracając uwagę na ważną część danych wejściowych, model może dynamicznie wybierać, które informacje są ważne, a które nie. Transformatory okazały się tak istotne, że stały się matką współczesnych modeli językowych, napędzając znaczną część sztucznej inteligencji. Dziś nawet w dziedzinie sztucznej inteligencji, która generuje obrazy takie jak Imagen i Parti.

Przez lata Transformers szkolono na ogromnych ilościach danych tekstowych z sieci. Pomagają identyfikować trendy i wzorce w języku, aby świadczyć usługi tłumaczeniowe, kształtować ludzką konwersację i zapewniać wysokiej jakości wyniki wyszukiwania. Ostatnio Transformatory zostały szerzej przyjęte, aby pomóc zrozumieć inne rodzaje informacji poza językiem, w tym obrazy, wideo i mowę. Rzeczywiście, Transformery przodują w zadaniach związanych z mową i obrazem, więc mogliśmy użyć tej technologii, aby nadać sens temu, co widzą roboty i jak się zachowują.

Zastosowanie transformatorów w robotach

Na podstawie współpracy z Everyday Robots firma Google wykazała, że ​​zintegrowanie zaawansowanego modelu językowego, takiego jak PaLM, z modelem uczenia się robota może nie tylko umożliwić ludziom komunikację z robotem, ale także poprawić ogólną wydajność robota. Ten model językowy umożliwił pomagającym botom zrozumienie różnych typów próśb – takich jak „Jestem głodny, przynieś mi przekąskę” lub „pomóż mi posprzątać ten wyciek” – i wykonanie ich.

Google używa tej samej architektury, co PaLM, Transformer, aby pomóc robotom uczyć się bardziej ogólnie na podstawie tego, co już widzieli. Zamiast więc po prostu rozumieć język stojący za prośbą typu „Jestem głodna, przynieś mi przekąskę”, może uczyć się — tak jak my — na podstawie wszystkich swoich wspólnych doświadczeń, robiąc takie rzeczy, jak oglądanie i przynoszenie przekąsek.

Biuletyn innowacji
Nie przegap najważniejszych wiadomości dotyczących innowacji. Zarejestruj się, aby otrzymywać je e-mailem.
Badania

Szkolenie Transformera zostało przeprowadzone na podstawie danych zebranych z 130.000 700 demonstracji – kiedy osoba obsługuje robota w celu wykonania zadania – ponad 13 typów zadań, które wykonało 1 robotów pomocniczych Everyday Robots. Czynności obejmują takie umiejętności, jak podnoszenie i umieszczanie przedmiotów, otwieranie i zamykanie szuflad, wkładanie i wyjmowanie przedmiotów z szuflad, umieszczanie wydłużonych przedmiotów w prawym górnym rogu, przewracanie przedmiotów, wyciąganie serwetek i otwieranie puszek. Rezultatem jest najnowocześniejszy model Robotics Transformer, czyli RT-700, zdolny do wykonania ponad 97 zadań. Wskaźnik sukcesu wynosi XNUMX%, uogólniając swoją naukę na nowe czynności, przedmioty i środowiska.
Jak model języka oparty na Transformer przewiduje następne słowo na podstawie trendów i wzorców, które widzi w tekście. RT-1 został przeszkolony w zakresie danych dotyczących percepcji robota i odpowiednich działań, aby mógł zidentyfikować następne najbardziej prawdopodobne zachowanie, w które robot powinien się zaangażować. Takie podejście pozwala robotowi uogólnić to, czego się nauczył, do nowych zadań. Robi to, zarządzając nowymi obiektami i środowiskami w oparciu o doświadczenia zawarte w danych szkoleniowych – co jest rzadkim wyczynem w przypadku robotów, które zazwyczaj są kodowane rygorystycznie pod kątem wąskich zadań.

Uczyć się od siebie nawzajem

Jako ludzie uczymy się z własnych doświadczeń i od siebie nawzajem. Często dzielimy się tym, czego się nauczyliśmy i przerabiamy systemy w oparciu o napotkane awarie. Chociaż roboty nie komunikują się ze sobą, badania pokazują, w jaki sposób można z powodzeniem łączyć zbiory danych z różnych typów robotów i przenosić między nimi zachowania. Google pokazało, że łącząc dane z kilku robotów, są w stanie niemal podwoić pojemność modelu i uogólnić go na nową scenę. Oznacza to, że kontynuując eksperymentowanie z różnymi robotami i nowymi zadaniami, można zwiększyć liczbę danych treningowych dla RT-1, poprawiając zachowanie robota, czyniąc go elastycznym i skalowalnym podejściem do uczenia się robotów.

W kierunku bardziej użytecznej robotyki

Tak jak Google udostępnił otwarte badania nad Transformerem, RT-1 będzie również otwarte, aby wspierać dalsze badania w przestrzeni robotyki. Jest to pierwszy krok w kierunku zrobotyzowanych systemów uczenia się, które mogą być w stanie poradzić sobie z niemal nieskończoną zmiennością środowisk skoncentrowanych na człowieku.

Ercole Palmeri

â € <  

Biuletyn innowacji
Nie przegap najważniejszych wiadomości dotyczących innowacji. Zarejestruj się, aby otrzymywać je e-mailem.

Najnowsze artykuły

Nowa sztuczna inteligencja Google może modelować DNA, RNA i „wszystkie cząsteczki życia”

Google DeepMind wprowadza ulepszoną wersję swojego modelu sztucznej inteligencji. Nowy ulepszony model zapewnia nie tylko…

9 maja 2024

Odkrywanie modułowej architektury Laravela

Laravel, znany ze swojej eleganckiej składni i potężnych funkcji, zapewnia również solidną podstawę architektury modułowej. Tam…

9 maja 2024

Cisco Hypershield i przejęcie Splunk Rozpoczyna się nowa era bezpieczeństwa

Cisco i Splunk pomagają klientom przyspieszyć podróż do Centrum Operacji Bezpieczeństwa (SOC) przyszłości dzięki…

8 maja 2024

Poza stroną ekonomiczną: nieoczywisty koszt oprogramowania ransomware

Ransomware dominuje w wiadomościach od dwóch lat. Większość ludzi doskonale zdaje sobie sprawę, że ataki…

6 maja 2024

Innowacyjna interwencja w rzeczywistość rozszerzoną z przeglądarką Apple w Poliklinice w Katanii

W Poliklinice w Katanii przeprowadzono operację oftalmoplastyki przy użyciu komercyjnej przeglądarki Apple Vision Pro…

3 maja 2024

Korzyści z kolorowanek dla dzieci - świat magii dla wszystkich grup wiekowych

Rozwijanie umiejętności motorycznych poprzez kolorowanie przygotowuje dzieci do bardziej złożonych umiejętności, takich jak pisanie. Kolorować…

2 maja 2024

Przyszłość jest tutaj: jak przemysł żeglugowy rewolucjonizuje gospodarkę światową

Sektor morski to prawdziwa światowa potęga gospodarcza, która osiągnęła 150-miliardowy rynek...

1 maja 2024

Wydawcy i OpenAI podpisują umowy regulujące przepływ informacji przetwarzanych przez Sztuczną Inteligencję

W ubiegły poniedziałek Financial Times ogłosił zawarcie umowy z OpenAI. FT udziela licencji na swoje światowej klasy dziennikarstwo…

Kwiecień 30 2024