Nur ein Knopfdruck
Ein Screenshot genügt.
Ein Knopfdruck – und das iPhone versteht, was zu tun ist.
Der Assistent erkennt nicht nur, was auf dem Bildschirm zu sehen ist, sondern wozu es gehört.
Er unterscheidet Apps, Texte, Fotos, Nachrichten, Räume, Objekte.
Er begreift, ob etwas formuliert, gestaltet, verkauft oder bewertet wird – und reagiert im passenden Modus.
Was folgt, ist keine Antwort aus der Ferne, sondern eine präzise Einordnung.
Er liest Ton, Haltung, Wirkung. In Sekunden.
Er gibt Hinweise zu Stil, Kontext oder Gestaltung – ruhig, sachlich, sofort.
Seit dem iPhone 15 Pro lässt sich das über die Aktionstaste starten; mit iOS 26 (oder neuer) ist die Integration in Apples Kurzbefehle noch direkter.
Aber auch ohne diese Taste funktioniert es – der Befehl lässt sich jedem Symbol oder Widget zuweisen.
Das Konzept und der vollständige Prompt wurden bereits unter „Exklusiv & Nützlich“ veröffentlicht – offen dokumentiert, damit jede:r ihn nachvollziehen und erweitern kann.
Im Video unten: eine ungeschnittene Live-Demo.
Kein Prototyp, kein Marketing.
Nur Funktion – auf Knopfdruck.
🎥
Videoeinbettung
Technische Basis
- iPhone 15 Pro oder neuer (empfohlen)
- iOS 26 oder aktueller
- Apple Kurzbefehle
Warum das zählt
KI zeigt ihre Stärke nicht in Theorie, sondern in Alltagsschnittstellen.
Sie ersetzt keine Aufmerksamkeit – sie erweitert sie.
Ein Werkzeug, das nicht denkt statt uns, sondern mit.
(c) Andy Ebels – 2025