Hallo!
Weiß jemand vielleicht wie man in C bzw. ObjectiveC seit Abschaffung von CGDisplayBaseAddress direkten Zugriff auf die Bildschirmpixel bekommt ? In der Doku steht nur, dass man danach über eine der üblichen Displayengines gehen muss. Kann ich aber nicht so ganz glauben. Da es den Mechanismus mit umschaltbaren Framebuffern und Übertragung ins VRAM sogar in Java gibt muss es die entsprechende Funktion auch im OSX geben.
Ich brauche das, weil ich selber eine Grafikengine habe und jeden Pixel selber setze und den ganzen Overhead des Windowservers aussen vor lassen möchte. Derzeit zeichne ich in ein Bitmap und lasse das Bitmap über ein drawRect in einen View darstellen. Leider dauert das display wesentlich änger als jede Zeichenoperation. Ich arbeite noch unter 10.9 deswegen wäre es auch interessant zu wissen ob bzw. wie das im aktuellen OSX geht.
Danke
Weiß jemand vielleicht wie man in C bzw. ObjectiveC seit Abschaffung von CGDisplayBaseAddress direkten Zugriff auf die Bildschirmpixel bekommt ? In der Doku steht nur, dass man danach über eine der üblichen Displayengines gehen muss. Kann ich aber nicht so ganz glauben. Da es den Mechanismus mit umschaltbaren Framebuffern und Übertragung ins VRAM sogar in Java gibt muss es die entsprechende Funktion auch im OSX geben.
Ich brauche das, weil ich selber eine Grafikengine habe und jeden Pixel selber setze und den ganzen Overhead des Windowservers aussen vor lassen möchte. Derzeit zeichne ich in ein Bitmap und lasse das Bitmap über ein drawRect in einen View darstellen. Leider dauert das display wesentlich änger als jede Zeichenoperation. Ich arbeite noch unter 10.9 deswegen wäre es auch interessant zu wissen ob bzw. wie das im aktuellen OSX geht.
Danke