For at tilpasse sig det åbne bymiljø er intelligente kroppe nødt til at fange kropsbevægelserne for de omgivende mennesker og strukturen i scenen i realtid. Den traditionelle opfattelse betyder baseret på inertielle sensorer og kameraer, der har problemerne med langvarige datadrift og følsomhed over for henholdsvis lys- og miljødynamiske ændringer Felter med intelligent kørsel, servicerobotik og sportsuddannelse.

Siden 2022 har teamet af professor Cheng Wang og prof. Chenglu Wen været den første til at foreslå LIDAR Human Motion Capture Technology på den internationale arena (LIDARCAP, CVPR 2022; HSC4D, CVPR 2022; SLOPER4D, CVPR 2023). I denne publikation, Hisc4D, bryder teamet gennem en metode til at fange forskellige to-personers interaktionsbevægelser og 3D-scener i førstepersonsvisning i store indendørs og udendørs åbne scener. Metoden konstruerer en flertrins fælles optimeringsramme ved at fusionere inertial vejledning og LIDAR-data, som effektivt løser drivproblemet forårsaget af inertial vejledning og forbedrer scenekonstruktionsnøjagtigheden markant og udvider området for rumlig, menneskelig bevægelse og interaktionsfangst. På samme tid frigives det første multimodale to-personers interaktionsdatasæt, der dækker forskellige scenetyper og diversificerede menneskelige bevægelser, der leverer træningsdataressourcer til relaterede forskningsfelter. Hisc4D-teknologi bruger LIDAR som kernesensor til at rekonstruere menneskelige bevægelser og 3D-scener på På samme tid, der åbner en ny måde at tænke på for legemliggjort intelligens for at gå til det store udendørs og integreres i mængden.









