En robot i en korridor, bredvid en punktmolnsrepresentation av samma scen.
Foto: eWEEK
AI

Nytt AI-system ger robotar mänsklig syn – helt utan molnet

Av

Slipp molnet och lagg. Det nya open source-projektet OpenEyes vill ge humanoida robotar mänsklig syn – direkt i hårdvaran.

Utvecklaren Mandar Wagh har lanserat OpenEyes, ett nytt open source-system för maskinseende, specifikt designat för humanoida robotar. Målet är att ge maskinerna en mänsklig förståelse för sin fysiska omgivning.

I stället för att bara registrera pixlar från en kamera är mjukvaran byggd för att tolka avstånd, handlingar och människors avsikter i realtid. Hela systemet körs lokalt på enheterna med hjälp av Nvidias kompakta AI-dator Jetson Orin Nano.

De flesta moderna röstassistenter och AI-tjänster förlitar sig på enorma datacenter för att bearbeta information. Genom att skippa molnet helt slipper OpenEyes-robotarna nätverkslagg och externa beroenden.

Projektet bygger helt på öppen källkod och skaparen uppmanar nu utomstående kodare att bidra till plattformen. Ett centralt budskap är att framtidens robotutveckling bör vara öppen för alla, inte bara för storföretag.

Att flytta tunga beräkningar direkt till hårdvaran är ett måste för att humanoida robotar ska kunna interagera säkert med människor i hem och på arbetsplatser. För svenska och europeiska techbolag innebär lokala system som OpenEyes dessutom att det blir lättare att bygga robotar som följer strikta integritetslagar, eftersom kamerornas videodata aldrig lämnar själva enheten.

Nu ligger fokus på att bygga upp ett aktivt community kring koden. Utvecklingen drivs via Github, och nästa fas handlar om att få in tillräckligt många frivilliga utvecklare för att finslipa algoritmerna.


Läs också:

Källor

Vår journalistik bygger på trovärdighet och opartiskhet. Fakta som publiceras ska vara verifierbara och relevanta. Vi strävar efter förstahandskällor och att vara på plats där händelser utspelar sig. Läs mer här.