🦾Suuri📷 virstanpylväs avoimen lähdekoodin robotiikassa: pi0 ja pi0.5 by @physical_int ovat nyt @huggingface, täysin siirretty PyTorchiin vuonna @LeRobotHF ja validoitu rinnakkain OpenPI:n kanssa, jotta kaikki voivat kokeilla, hienosäätää ja ottaa käyttöön roboteissaan! Kuten Physical Intelligence kuvailee, π₀.₅ on Vision-Language-Action -malli, joka edustaa merkittävää kehitystä π₀:stä robotiikan suuren haasteen, avoimen maailman yleistämiseen, vastaamiseen. Vaikka robotit voivat suorittaa vaikuttavia tehtäviä kontrolloiduissa ympäristöissä, π₀.₅ on suunniteltu yleistämään täysin uusiin ympäristöihin ja tilanteisiin, joita ei koskaan nähty koulutuksen aikana. Yleistämisen on tapahduttava useilla tasoilla: - Fyysinen taso: Lusikan (kahvasta) tai lautasen (reunasta) poimimisen ymmärtäminen, vaikka näkymättömiä esineitä olisi sotkuisissa ympäristöissä - Semanttinen taso: Tehtävän semantiikan ymmärtäminen, mihin vaatteet ja kengät laitetaan (pyykkikori, ei sängylle) ja mitkä työkalut sopivat roiskeiden puhdistamiseen - Ympäristötaso: Sopeutuminen "sotkuisiin" todellisiin ympäristöihin, kuten koteihin, ruokakauppoihin, toimistoihin ja sairaaloihin π₀₅:n läpimurtoinnovaatio on heterogeenisiä tietolähteitä koskeva yhteiskoulutus. Malli oppii: - Multimodaalinen verkkodata: kuvatekstitys, visuaalinen kysymyksiin vastaaminen, objektien tunnistus - Suulliset ohjeet: Ihmiset valmentavat robotteja monimutkaisten tehtävien läpi vaihe vaiheelta - Alitehtäväkomennot: Korkean tason semanttisen käyttäytymisen tunnisteet (esim. "poimi tyyny" pedaamattomalle sängylle) - Cross-Embodiment Robot Data: Data eri robottialustoilta, joilla on erilaiset ominaisuudet - Moniympäristötiedot: Staattiset robotit, joita käytetään monissa eri kodeissa - Mobiilimanipulaatiotiedot: ~400 tuntia mobiilirobottien esittelyjä Tämä monipuolinen koulutusyhdistelmä luo "opetussuunnitelman", joka mahdollistaa yleistämisen samanaikaisesti fyysisellä, visuaalisella ja semanttisella tasolla. Suuret kiitokset @physical_int tiimille ja avustajille Malli: LeRobot: