Translate

mercoledì 21 giugno 2023

Scienza: robot impara dai video tutorial a chiudere i cassetti =

 


MERCOLEDÌ 21 GIUGNO 2023 12.02.52

Scienza: robot impara dai video tutorial a chiudere i cassetti =

Scienza: robot impara dai video tutorial a chiudere i cassetti = (AGI) - Roma, 21 giu. - E' stato creato un robot che impara le faccende domestiche guardando video tutorial di persone che svolgono attivita' quotidiane nelle loro case. Lo dimostra il lavoro degli scienziati della Carnegie Mellon University, presentato alla Conference on Vision and Pattern Recognition. La ricerca potrebbe contribuire a migliorare l'utilita' dei robot in casa, consentendo loro di assistere le persone in compiti come cucinare e pulire. Due robot hanno imparato con successo dodici compiti, tra cui aprire un cassetto, lo sportello e il coperchio del forno, togliere una pentola dai fornelli e prendere un telefono, una verdura o una lattina di zuppa. "Il robot, guardando i video, puo' imparare dove e come gli esseri umani interagiscono con i diversi oggetti - ha dichiarato Deepak Pathak, professore assistente presso l'Istituto di Robotica della Scuola di Informatica della Carnegie Mellon University - da questa conoscenza, possiamo addestrare un modello che permetta a due robot di completare compiti simili in ambienti diversi", ha continuato Pathak. Il nuovo modello, Vision-Robotics Bridge (Vrb), elimina la necessita' di dimostrazioni umane e la necessita' che il robot operi in un ambiente identico, come nel caso della precedente versione, In-the-Wild Human Imitating Robot Learning (Whirl), che richiedeva che l'uomo completasse il compito nello stesso ambiente. Il nuovo robot richiede comunque una certa pratica per padroneggiare un compito. (AGI)Sci/Oll (Segue) 211202 GIU 23 NNNN

MERCOLEDÌ 21 GIUGNO 2023 12.02.49

Scienza: robot impara dai video tutorial a chiudere i cassetti (2)=

Scienza: robot impara dai video tutorial a chiudere i cassetti (2)= (AGI) - Roma, 21 giu. - La ricerca del gruppo ha dimostrato che l'automa puo' imparare un nuovo compito in soli venticinque minuti. "Siamo riusciti a portare i robot in giro per il campus e a svolgere ogni tipo di compito", ha detto Shikhar Bahl, dottorando in robotica alla Carnegie Mellon University. Per insegnare al robot come interagire con un oggetto, i ricercatori hanno applicato il concetto di 'affordance', che affonda le proprie radici nella psicologia e fa riferimento a tutto cio' che un ambiente offre a un individuo. Per il Vision-Robotics Bridge le 'affordance' definiscono dove e come un robot potrebbe interagire con un oggetto in base al comportamento umano. Ad esempio, quando un robot osserva un essere umano che apre un cassetto, identifica i punti di contatto, come la maniglia e la direzione del movimento del cassetto, dalla posizione di partenza. Dopo aver visto diversi video di umani che aprono cassetti, il robot stato e' in grado di aprire qualsiasi cassetto. Il gruppo di scienziati ha utilizzato video provenienti da grandi serie di dati come Ego4D ed Epic Kitchens. Ego4D contiene quasi 4mila ore di video egocentrici di attivita' quotidiane provenienti da tutto il mondo. I ricercatori della Carnegie Mellon University hanno contribuito a raccogliere alcuni di questi video. Epic Kitchens contiene video simili che riprendono la cucina, la pulizia e altre attivita' di cucina. Entrambi i set di dati sono destinati a contribuire all'addestramento di modelli di visione artificiale. "Stiamo usando questi set di dati in modo nuovo e diverso - ha detto Bahl - questo lavoro potrebbe consentire ai robot di imparare dalla grande quantita' di video disponibili su Internet e YouTube". (AGI)Sci/Oll 211202 GIU 23 NNNN

Nessun commento: