Doch doch. Wir verstehen Dich alle.
Ein Bild hat erstmal Pixel. Und ein Graphics Context unter iOS auch, es wird ja in eine Bitmap gerastert.
Die Umsetzung wie viele dieser Rasterpunkte auf den physikalischen Pixeln eines Bildschirmbrereichs landen, macht iOS über den contentScale Faktor.
Oder auch über eine Affine Transformation.
Die "imageNamed" Methode macht einfach genau das.
Sie liest eine Bild Datei und rastert die Pixel in einem BitmapContext, ein Pixel vom Bild in einen Rasterpixel der Bitmap.
Und nur anhand des Names wird der Skalierungsfaktor gesetzt.
Der Bildinhalt spielt dabei keine Rolle.
Du kannst das Bild auch selber laden, anhand des Names im Bundle und all das oben beschriebene selber machen.
Die "imageNamed" Methode nimmt Dir halt genau diese Arbeit ab,
PS: Ich bin mir nicht sicher, ob sich Deine Frage schon erledigt hatte.
Ein Bild hat erstmal Pixel. Und ein Graphics Context unter iOS auch, es wird ja in eine Bitmap gerastert.
Die Umsetzung wie viele dieser Rasterpunkte auf den physikalischen Pixeln eines Bildschirmbrereichs landen, macht iOS über den contentScale Faktor.
Oder auch über eine Affine Transformation.
Die "imageNamed" Methode macht einfach genau das.
Sie liest eine Bild Datei und rastert die Pixel in einem BitmapContext, ein Pixel vom Bild in einen Rasterpixel der Bitmap.
Und nur anhand des Names wird der Skalierungsfaktor gesetzt.
Der Bildinhalt spielt dabei keine Rolle.
Du kannst das Bild auch selber laden, anhand des Names im Bundle und all das oben beschriebene selber machen.
Die "imageNamed" Methode nimmt Dir halt genau diese Arbeit ab,
PS: Ich bin mir nicht sicher, ob sich Deine Frage schon erledigt hatte.