Ich möchte gerne ziemlich genau soetwas: youtube.com/watch?v=YgGA0zYKLzg entwickeln.
Habe noch wenig Erfahrung mit ios Entwicklung.
Meine Frage ist, mit welcher Technik wird in der App im Video eurer Meinung nach gearbeitet?
Wird hier einfach nur mit den Sensores gearbeitet, mit denen man ja die Neigung des geräts feststellen kann?
Oder eher mit einer AR bibliothek? Wenn ja, frage ich mich, warum diese
Lösung ohne diese "Grafiken", die man sonst fast immer sieht, auskommt.
Ich meine die Dinger, die man im Raum plaziert, anhand deren die App
dann erkennt, wo sie "augmentieren" soll, ich weiss leider nicht, wie
mann die nennt.
Habe noch wenig Erfahrung mit ios Entwicklung.
Meine Frage ist, mit welcher Technik wird in der App im Video eurer Meinung nach gearbeitet?
Wird hier einfach nur mit den Sensores gearbeitet, mit denen man ja die Neigung des geräts feststellen kann?
Oder eher mit einer AR bibliothek? Wenn ja, frage ich mich, warum diese
Lösung ohne diese "Grafiken", die man sonst fast immer sieht, auskommt.
Ich meine die Dinger, die man im Raum plaziert, anhand deren die App
dann erkennt, wo sie "augmentieren" soll, ich weiss leider nicht, wie
mann die nennt.