Positionsbestimmung über WLAN

Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

  • Positionsbestimmung über WLAN

    Hallo,

    in einem Raum sind mehrere WLAN-Stationen installiert. Ist es möglich, darüber die Position und die "Blickrichtung" eines iPhones zu bestimmen. Also kann ich über eine iPhone-Applikation mit Hilfe der Standorte der WLAN-Stationen die genauen Koordinaten (inklusive Richtung) des iPhones bestimmen? Den eingebauten Kompass des 3GS darf ich allerdings nicht voraussetzen :(

    Kann mir jemand einen Tipp geben, wo ich entsprechende Hinweise oder Bibliotheken finde?

    Viele Grüße
    Clemens
    „Meine Komplikation hatte eine Komplikation.“
  • Original von scaramangado
    CoreLocation?

    "Blickrichtung" lässt sich aber nur mit Kompass bestimmen (oder wenn man sich merklich in eine bestimmte Richtung bewegt).

    Mmmh, nicht ganz. Ich will die Blickrichtung auch ohne Kompass bestimmen. Der Vorteil den ich dabei habe sind diebekannten Standorte der WLAN-Stationen.

    Im Prinzip würde CoreLocation ausreichen, wenn ich den Winkel des iPhones zu einer WLAN-Station bestimmen könnte.
    „Meine Komplikation hatte eine Komplikation.“
  • Original von macmoonshine
    Original von scaramangado
    CoreLocation?

    "Blickrichtung" lässt sich aber nur mit Kompass bestimmen (oder wenn man sich merklich in eine bestimmte Richtung bewegt).

    Mmmh, nicht ganz. Ich will die Blickrichtung auch ohne Kompass bestimmen. Der Vorteil den ich dabei habe sind diebekannten Standorte der WLAN-Stationen.

    Im Prinzip würde CoreLocation ausreichen, wenn ich den Winkel des iPhones zu einer WLAN-Station bestimmen könnte.


    Das geht aber nicht. WLAN ist schließlich eine Funktechnologie. Wände und Pfeiler ändern das ganze nochmals, selbst Umweltbedingungen können das ganze verfälschen...
    Skeiron
    Der Mac heiligt die Mittel.
  • Original von scaramangado
    Das geht aber nicht. WLAN ist schließlich eine Funktechnologie. Wände und Pfeiler ändern das ganze nochmals, selbst Umweltbedingungen können das ganze verfälschen...

    Sowas habe ich schon fast befürchtet. Vielen Dank. Auch eine negative Antwort hilft mir ein bisschen weiter.

    Gibt es einfache "optische" Möglichkeiten, mit denen eine grobe Richtungsbestimmung gemacht werden kann. Mir geht es darum, zu bestimmten "Bildern" (bzw. Objekten), die in der iPhone-Kamera angezeigt werden, Zusatzinformationen auf dem Bildschirm anzuzeigen.
    „Meine Komplikation hatte eine Komplikation.“
  • wenn es dir reichen würde, dass du weißt wo genau im Raum du bist, kannst du ja einfach so schwache Bluetooth-Sender nehmen, dass sie nur in einem kleinen Umkreis erkannt werden...
    Aber in welche Richtung der Nutzer guckt kannst du auch so nicht herausfinden, da kommt man ohne Kompass nicht weiter...
    Skeiron
    Der Mac heiligt die Mittel.
  • Original von scaramangado
    wenn es dir reichen würde, dass du weißt wo genau im Raum du bist, kannst du ja einfach so schwache Bluetooth-Sender nehmen, dass sie nur in einem kleinen Umkreis erkannt werden...

    Kann eine Applikation "dynamisch" Bluetooth-Sender erkennen und Daten von diesen empfangen?

    Original von scaramangado
    Aber in welche Richtung der Nutzer guckt kannst du auch so nicht herausfinden, da kommt man ohne Kompass nicht weiter...

    Ja, ist schon klar.
    „Meine Komplikation hatte eine Komplikation.“
  • Wenn ich mich jetzt nicht total täusche sollten doch elementarste Grundsätze der Geometrie es schlicht und ergreifend unmöglich machen, allein durch Triangulation die Blickrichtung zu bestimmen (es sei denn, man hätte zwei Empfänger deren Abstand man kennt, aber hat man ja nicht).
    Darum baut man ja heutzutage einen Kompass in derleit Geräte ein.

    Und: Soweit ich das mitbekommen habe ist Bluetooth auf dem iPhone...ein Witz?
    C++
  • Original von macmoonshine
    Gibt es einfache "optische" Möglichkeiten, mit denen eine grobe Richtungsbestimmung gemacht werden kann. Mir geht es darum, zu bestimmten "Bildern" (bzw. Objekten), die in der iPhone-Kamera angezeigt werden, Zusatzinformationen auf dem Bildschirm anzuzeigen.

    Mh das ist ja schon seit einiger Zeit recht angesagt. Soweit ich das mitbekommen habe ist für solche Zwecke ein Kompass leider das einzig wahre.
    Einzige halbwegs vernünftige Alternative währe in meinen Augen, das ganze im Bildraum zu machen, d.h. über Objekterkennung. Bei uns an der Uni gibs da einen schönen Museumsführer, der - wenn ich mich recht erinnere - das über recht kleine neuronale Netze löst. Das iPhone sollte jedoch inzwischen von der Prozessor-Leistung in der Lage sein, in erträglichen Zeiten SIFT (oder SURF) zu verwenden - jedoch auch das wahrscheinlich nicht mit viel mehr als 1fps.
    Bildbasiert hat jedoch den entscheidenden Vorteil, dass as Bildbasiert ist: Wenn das Objekt von Interesse verdeckt ist (z.B. durch andere Menschen), wird auch keine Information dazu angezeigt.
    C++
  • Original von zermelo
    Mh das ist ja schon seit einiger Zeit recht angesagt. Soweit ich das mitbekommen habe ist für solche Zwecke ein Kompass leider das einzig wahre.
    Einzige halbwegs vernünftige Alternative währe in meinen Augen, das ganze im Bildraum zu machen, d.h. über Objekterkennung. Bei uns an der Uni gibs da einen schönen Museumsführer, der - wenn ich mich recht erinnere - das über recht kleine neuronale Netze löst. Das iPhone sollte jedoch inzwischen von der Prozessor-Leistung in der Lage sein, in erträglichen Zeiten SIFT (oder SURF) zu verwenden - jedoch auch das wahrscheinlich nicht mit viel mehr als 1fps.
    Bildbasiert hat jedoch den entscheidenden Vorteil, dass as Bildbasiert ist: Wenn das Objekt von Interesse verdeckt ist (z.B. durch andere Menschen), wird auch keine Information dazu angezeigt.

    Das hört sich extrem interessant an. Wo kann ich dazu mehr erfahren?
    „Meine Komplikation hatte eine Komplikation.“
  • Die Arbeiten von unserer Uni dazu gibt es hier, habe ich aber selber nicht gelesen von daher kann ich da nichts empfehlen. Ich nehme aber einmal an, dass dort jeweils auch andere Techniken besprochen und abgewogen wurden.
    Ansonsten SIFT/SURF ist relativ generell, braucht aber dennoch etwas Einarbeitung, bis man sieht, wie man damit seine Probleme lösen kann. SIFT ist patentiert, müsstest Du also für einen kommerziellen Einsatz lizensieren. SURF ist von der Benutzung her ziemlich gleich, jedoch frei. Eine SURF Implementierung (einschliesslich einem KD-Baum, welchen man für ein performantes Matchen verwenden sollte) ist im aktuellen (1.1) OpenCV enthalten. Ich hab schon von Menschen gehört, die OpenCV erfolgreich auf dem iPhone verwenden, hier kann ich aber nicht grossartig weiterhelfen.
    C++
  • Original von wolf_10de
    Anhand eines Standpunkts lässt sich absolut keine Blickrichtung errechnen (ohne Kompass), dazu benötigst du natürlich einen Richtungsvektor.

    Letztendlich zielte meine ursprüngliche Frage auch genau dahin: Kann der WLAN-Empfänger die Richtung einer WLAN-Station ermitteln.

    Diese Frage ist ja nun bereits mehrmals verneint worden. Diese Frage ist ja nun bereits mehrmals verneint worden. Diese Frage ist ja nun bereits mehrmals verneint worden. Diese Frage ist ja nun bereits mehrmals verneint worden. Diese Frage ist ja nun bereits mehrmals verneint worden.

    Malkovich, Malkovich, Malkovich, Malkovich...

    Trotzdem: Danke, danke, danke

    Wie komme ich nur jetzt aus dieser Schleife wieder raus? Wie komme ich nur jetzt aus dieser Schleife wieder raus? Wie komme ich nur jetzt aus dieser Schleife wieder raus? Wie komme ich nur jetzt aus dieser Schleife wieder raus?

    Aaaaargh, Aaaaargh, Aaaaargh, Aaaaargh
    „Meine Komplikation hatte eine Komplikation.“
  • Original von g4ul1x
    Mal ne Frage zur Thematik. :) Wie kann ich den Richtungsvektor von zwei GPS Koordinaten bekommen. Ich meine kann man die Koordinaten einfach so berücksichtigen wie x,y Koordinaten oder
    muss ich die Latitude/Longitude erst umrechnen?

    Ganz so simpel ist das nicht. Längen-/Breitengrad sind Winkelkoordinaten, da kommst du mit kartesischer Vektormathematik nicht weiter. Also umrechnen in ein kartesisches System. Gängig sind:
    • ECEF (Earth-centered Earth-fixed): Nullpunkt ist im Erdmittelpunkt, die z-Achse geht durch Nord-/Südpol, die x-Achse schneidet den Äquator im Nullmeridian und die y-Achse schneidet den Äquator im 90. Längengrad.
    • ENU: Local east/north/up: du bestimmst einen fixen Referenzpunkt auf der Erdoberfläche als Nullpunkt des Koordinatensystems. An diesen Punkt wird eine Tangentialebene zur Erdoberfläche angesetzt. Die Erde wird also quasi in diesem lokalen Bereich als flach angenommen. Konvention: x-Achse zeigt nach Osten, y-Achse nach Norden, z-Achse nach oben.
    Bei Wikipedia ist das noch mal recht gut beschrieben. Da stehen auch Umrechnungsformeln. Ich beschäftige mich auch gerade mit dem Thema und kann die C++-Bibliothek GeographicLib empfehlen, die kann auch alle Umrechnungen sehr einfach und (angeblich) sehr genau (Klassen Geocentric (ECEF) bzw. LocalCartesian (ENU)).

    PS: Es ist übersichtlicher, wenn du für neue Fragen auch einen neuen Thread aufmachst. Auch wenn die Frage zum Thema passt.