Det ser ut til at verden av Kinect Hacks er i ferd med å bli litt mer interessant.
Mens mange av Kinect-baserte prosjektene vi ser, bruker en eller to enheter, utviklet dette 3D-telepresence-systemet av UNC Chapel Hill Student [Andrew Maimone] under veiledningen av [Henry Fuchs] dem alle slag.
Oppsettet bruker opptil fire Kinect-sensorer i et enkelt endepunkt, som fanger bilder fra forskjellige vinkler før de behandles ved hjelp av GPU-akselerert filtre. Videoen fanget av kameraene er behandlet i en rekke trinn, fyllingshull og justeringsfarger for å lage et maskebilde. Når videostrømmene er behandlet, blir de overlappet med hverandre for å danne et komplett 3D-bilde.
Resultatet er en fantastisk sanntids 3D-gjengivelse av emnet og omkringliggende rom som minner oss om denne papercraft-kostymen. 3D-videoen kan ses på en ekstern stasjon som bruker en Kinect-sensor for å spore øyets bevegelser, endre videomattens perspektiv tilsvarende. Telepresence-systemet tilbyr også muligheten til å legge til i ikke-eksisterende gjenstander, noe som gjør det til et fantastisk verktøy for ekstern teknologi demonstrasjoner og lignende.
Sjekk ut videoen nedenfor for å se et omfattende gjennomgang av dette 3D telepresence-systemet.