Augmented Reality App

Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

  • Augmented Reality App

    Ich möchte gerne ziemlich genau soetwas: youtube.com/watch?v=YgGA0zYKLzg entwickeln.

    Habe noch wenig Erfahrung mit ios Entwicklung.

    Meine Frage ist, mit welcher Technik wird in der App im Video eurer Meinung nach gearbeitet?

    Wird hier einfach nur mit den Sensores gearbeitet, mit denen man ja die Neigung des geräts feststellen kann?

    Oder eher mit einer AR bibliothek? Wenn ja, frage ich mich, warum diese
    Lösung ohne diese "Grafiken", die man sonst fast immer sieht, auskommt.

    Ich meine die Dinger, die man im Raum plaziert, anhand deren die App
    dann erkennt, wo sie "augmentieren" soll, ich weiss leider nicht, wie
    mann die nennt.
  • Der PDF-Datei nach zu urteilen, die man auf der ViewAR-Homepage herunterladen soll, nutzen sie das AR SDK von IT5. Also markerbasiertes Tracking - der Marker wird im Bild erkannt und so die extrinsischen Kameraparameter (Position, Orientierung relativ zum Boden) berechnet. Ziemlich zuverlässig und einfach, man braucht halt einen Marker. Die Geometrie des Markers ist bekannt und die intrinsichem Kameraparameter (Optik, Verzerrungen usw.) werden vermutlich geschätzt.

    Ohne Marker ist sowas erheblich schwieriger. Google-Stichwörter zum Einstieg: "Markerless Tracking", "Computer vision SLAM". Neben dem Kameratracking brauchst Du dann noch eine Referenz der Grundebene (das macht im anderen Ansatz der Marker ja auch). Das ist kein Projekt, das man mal eben nebenbei macht, um das zuverlässig und performant hinzubekommen braucht man fundierte Kenntnisse in Computer Vision.

    Eine gutes Matching über Lagesensoren zu machen halte ich für schwierig bis unmöglich - grobe Einblendungen gehen, aber keine genaue Überlagerung.

    Edit: In der Slideshow auf der Homepage kann man den Marker auf dem Boden liegen sehen. Entweder wurde er aus dem Video herausretuschiert oder das SDK kann grob bildbasiert oder mit den Lagesensoren weitertracken, wenn der Marker aus dem Bild ist.
    Multigrad - 360°-Produktfotografie für den Mac

    Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von mattik ()