Vi mennesker samhandler hele tiden med fysiske objekter. Det som gjør dette mulig er vår intuitive forståelse av hva vi kan gjøre med en bestemt gjenstand. Vi forstår umiddelbart hvordan vi kan relatere oss fysisk til et fysisk objekt.
Vi forstår også hva som skal til for å oppnå det resultatet vi ønsker å oppnå og samtidig forstår vi ganske så umiddelbart hva som ikke er mulig.
Dette er ikke enkelt å programmere inn i et AI-system. Steget derfra til å styre en robot til å utføre dette har vært svært så vanskelig.
Roboter som samhandler med fysiske objekter
Et stor utfordring innen AI-forskning er derfor å lage AI-systemer som kan få roboter til å lykkes med praktisk samhandling i den fysiske verden.
Har du en skuff, så er utfordringen å få AI-systemet til å forutse at det skal brukes en trekkraft på håndtaket for å åpne skuffen.
Nå har forskere ved Stanford og Facebook har kommet et stykke på vei. De samler informasjon relatert til handlinger som å skyve eller trekke ut gjenstander med bevegelige deler og bruker dette til å trene en AI-modell.
Forskerne brukte en simulator kalt SAPIEN for å lære og teste deres tilnærming på seks typer interaksjoner som dekker 972 former over 15 vanlig sett innendørs objekter.
I eksperimenter visualiserte de modellens handlingsscoring over virkelige 3D-skanninger fra datasett med åpen kildekode.
Se videoen for en forklaring her.

LES OSGÅ : Stanford researchers propose AI that figures out how to use real-world objects
Hva tror du? Nærmer vi oss en verden hvor roboter kan bevege seg like godt som oss mennesker i det fysiske rom?