AR Toolkit

  • Ich habe schon ein paar kleinere Projekte mit dem Metaio SDK gemacht, waren aber eher Samples. Markerless funktioniert damit auch, wenn die Lichtverhältnisse brauchbar sind. Ein brauchbares Sample ist dabei. Auch Unity wird unterstützt, das habe ich aber noch nicht probiert - der integrierte Renderer ist aber relativ eingeschränkt. Die Firma sitzt in München...

    String habe ich mir auch mal kurz angesehen, aber habe damit noch nichts gemacht.

    Was hast du denn für Anforderungen?
  • Über deine Erfahrungen würde ich mich durchaus gerne mit dir austauschen - wir können das aber auch gerne per Mail machen.

    Drei Erfahrungen mit Metaio (aber für String wird das nicht so anders sein) kann ich dir gleich weiter geben.

    a) bislang war der größte Aufwand nicht die Programmierung der App, sondern das konvertieren und reduzieren der 3D Modelle mit den Texturen. Ein Rechner ist da ja ziemlich flott und ein 3D-Designer kann auch ohne Real-Time Rendering leben. Bei AR Apps muss es aber Real-Time sein was die Größe der Texturen und die Anzahl der Polygone erheblich einschränkt. Unity mag da besser sein, aber du wirst nicht darum herum kommen, das 3D Modell reduzieren zu lassen (wenn du das nicht selbst kannst).

    b) die Welt der 3D Programme konnte sich bislang noch nicht auf einen brauchbaren Standard für Dateiformate einigen. Die Konvertierung der Formate - unabhängig von der Mesh-Reduction - hat also an sich schon der Teufel gesehen. Du kannst dich auch nicht darauf verlassen, dass Kunden die Daten in einem brauchbaren Format anliefern (was für andere Datentypen auch gilt).

    c) wenn du dann a) und b) gelöst hast, dann beginnt das Konfigurieren des Trackers und des Modells. Bei einem Projekt im Freien habe ich zwei Nachmittage damit verbracht, mit Laptop auf einem Barhocker und einem iPad in der Hand + Kabel das Modell wie gewünscht in die Szene einzufügen. So wirklich richtig hat das nicht geklappt, weil sich die veränderlichen Lichtverhältnisse im Freien nachteilig bemerkbar gemacht haben. Mit den Markerless 3D Trackern im Metaio 3.2 könnte das jetzt besser sein, zumal es dafür eine recht sinnvolle Tool-Chain gibt (Metaio Creator auf dem Device + Tools auf dem Rechner).

    Wie gesagt, das Programmieren selbst ist relativ einfach, viel Code brauchst du für eine kleine App nicht - aber in die Details musst du viel Zeit einplanen und dir ggf. einen guten Dienstleister für die 3D Sachen suchen...
  • Danke ssb, sehr hilfreich.

    Ja die Inkompatibilitaet der 3D-Welt - sowohl auf API/Scripting-Ebene wie auch auf Ebene der klassischen Austauschformate - ist ein Grauensmaerchen an sich und es liegt in primaer in kommerziellen/politischen Interessenskonflikten, warum die Welt sich dbzgl. in den letzten 15 Jahren nicht wirklich zum guten veraendert hat. Gluecklicherweise gibt es Meta-APIs wie Unity-3D die einem eine halbwegs synchrone Abdeckung verschiedener Back-Ends erlaubt - zumindest ganz gut auf der Ausgabe-/Szenenebene. Da funktioniert cross-platform ganz gut, waehrend ich im mobilen Kontext - ich warte schon auf das erste Supi-Dupi-Android-iOS-Metro-better-than-native-Code-once-runs-everywhere-Toolkit-Announcement - skeptisch bin.

    Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von CI-CUBE ()

  • Spannendes Thema.
    Vor Allem die Integration in die Szene klingt wirklich nach Aufwand.

    Aktuell arbeitet das Blender Team ja an einem neuen OpenMovie (Veröffentlichung: demnächst. [26.09.]) und haben da schon mit diversen Problemen zu kämpfen.
    Das ist aber alles pre-rendered, ich glaube ich will gar nicht wissen, wie das mit Echtzeitrendering sein muss...
    «Applejack» "Don't you use your fancy mathematics to muddle the issue!"

    Iä-86! Iä-64! Awavauatsh fthagn!

    kmr schrieb:

    Ach, Du bist auch so ein leichtgläubiger Zeitgenosse, der alles glaubt, was irgendwelche Typen vor sich hin brabbeln. :-P
  • Moin,

    zwar etwa Spät aber ich beschäftige mich gerade wieder mit der AR-Thematik.
    In den letzten 1 1/2 Jahre hat sich bei mir folgendes Pärchen herauskristallisiert: Unity3D und vuforia. Das AR-Framework ist von seiner Leistung klar im oberen Drittel anzusiedeln. Die Integration von vuforia-Tracker in Unity und die noch viel wichtigeren korrekten Positionierung, Antination, Interaktion ... lässt leicht, auf rudimentärer Ebene, vorbereiten. Ich nutze aber Unity nicht um spiele zu erstellen, sondern um Präsentations- / Verkaufshelfer Apps erstelle (und dann nur in-house).

    Metaio ist auch nicht verkehrt. Ich habe mir auch die SDK von String angesehen - sehr Leistungsfähig und beeindrucken Schnell aber genauso Kostenintensiv in der Lizenzierung (poweredbystring.de) kann auch mit Unity genutzt werden.

    Gruß

    PS: Wenn ich doch mal ein Modell tunen muss oder selbst ein Object erstellen möchte, nutze ich das gute alte Cinema4D.
  • Ja, setze auch auf Unity und Vuforia! Mir gehts auch nicht um Spiele sondern B2B, evtl. B2C. Habe fuer den Unity-Part eine entsprechende Klassenbibliothek erstellt und eine native iOS-Integration gemacht, so dass ich das UI primaer in iOS machen kann. Wenn Du an konkretem Erfahrungsaustausch Interesse hast, melde Dich einfach.
  • ich hab das metaio SDK geladen und versuche mich gerade durch die Tutorials zu arbeiten

    hab dazu die Demo app auf dem iPad
    die erste Demo funktioniert auch , wenn ich das Bild von dem Männchen am Monitor mit der Kamera "scanne" dann sehe ich das Männchen als AR Objekt

    bei der zweiten demo der Demo app bekomme ich aber gar nichts zu sehen
    was muss man den da vor die Kamera halten oder machen?
    ich find da in der anleitung zum Tutorial 2 irgendwie nichts

    EDIT:
    hab es jetzt gefunden, stand nicht im Tutorial selber, sondern rechts an der Seite ist ein button download Markerless.pdf
    Ich weiß nicht immer wovon ich rede aber ich weiß das ich Recht habe. :saint: