- ZeldoGiQ Newsletter
- Posts
- Veo 3.1 in Deutschland: Was jetzt wirklich besser ist (und was nicht)
Veo 3.1 in Deutschland: Was jetzt wirklich besser ist (und was nicht)
Veo 3.1 mit besserem Ton/Bild zum gleichen Preis, NotebookLM-Updates, Sora 2-News, WAN 2.5 & mehr – kompakt, praxisnah, ohne Hype.
Hallo mein unabhängiger Freund,
hier kommt dein klare-Kante-Update zur neuen Veo 3.1 – jetzt auch in Deutschland verfügbar!
Du bekommst hier alles, was du wissen musst: die echten Unterschiede, Kosteneffizienz, Prompt-Tipps und die wichtigsten KI-News der Woche.
Dieser Newsletter ist eine vollwertige Alternative zum Video und ergänzt es um konkrete Workflows und Einschätzungen, damit du sofort produktiv loslegen kannst.
Veo 3.1 – was wirklich neu ist
Kurz gesagt: Gleiche Kosten wie Veo 3.0, aber deutlich bessere Prompt-Treue, Tonqualität und Bildtiefe – besonders im Fast-Modus.
So nutzt du Veo 3.1 in Deutschland (über Google Flow):
In Google Flow das Modell Veo 3.1 (Fast oder Quality) auswählen.
Fast-Modus: 20 Credits / Clip
Quality-Modus: 100 Credits / Clip
→ Gleiche Preise wie zuvor bei Veo 3.0.Gemini zeigt aktuell noch Veo 3 Fast Preview (mit 3 kostenlosen Generierungen). Veo 3.1 wird dort in Kürze nachgezogen.
Falls es in Flow nicht angezeigt wird: Seite mehrfach neu laden.
Wenn du die Unterschiede zwischen Veo 3.0 und 3.1 live sehen und hören willst,
findest du den direkten Vergleich in meinem Video hier:
Fast vs. Quality – das echte Kostenverhältnis
Tests zeigen:
Fast-Modus liefert bessere Ergebnisse als der Quality-Modus – klarere Bewegungen, korrekte Richtung, realistischere Licht- und Toneffekte.
Prompt-Treue ist signifikant höher.
Empfehlung: Verwende Fast, spare Credits und gewinne an Konsistenz.
JSON-Prompts aus Veo 3 funktionieren weiterhin vollständig in Veo 3.1.
Du kannst wie gewohnt im Hoch- oder Querformat arbeiten und bis zu vier Videos pro Prompt erzeugen.
Schnellstart-Prompts, die richtig greifen
„Back view of a cyber-panda looking over a neon city; thunder & lightning; flying cars to the left; hologram burger ad; cinematic audio ambience.“
„Close-up, slow dolly-in on a burger stand at night; rain hits lens; neon reflections; crowd murmur; deep warm announcer voice says: ‘Bossburger regiert die Nacht.’“
Prompt-Tipp: Bewegungsrichtung, Licht, Soundkulisse und Kamerabewegung explizit formulieren – kurze Sätze, aktive Verben.
NotebookLM Update – Videozusammenfassungen mit Nano Banana
Neu: NotebookLM erstellt jetzt aus einem YouTube-Link automatisch Videozusammenfassungen mit einheitlichem Stil, Bildern und optionaler Audioversion.
Zusätzlich kannst du über den Prompt-Editor die Tonalität anpassen (z. B. „kinderfreundlich“, „wissenschaftlich“ etc.).
So nutzt du es praktisch:
YouTube-Link einfügen.
Auto-Summary prüfen, dann Video-Summary erstellen.
Mit dem Stift-Symbol den Stil anpassen.
Einstellungen für Kontrast und Look individuell verfeinern.
Nano Banana ist jetzt auch in Google Search integriert – z. B. Foto aufnehmen, Banane-Icon klicken, Szene umgestalten.
Die Funktion ist in der EU aktiv.
Google AI Studio – neues Design, mehr Effizienz
Das User Interface wurde überarbeitet:
Neue Kachelstruktur mit Schnellzugriffen auf Playground, App-Erstellung und Usage-Tracking.
Aktuell noch kein EU-Rollout, aber auf OS-Accounts bereits live.
Ergebnis: Weniger Klicks, schnellere Experimente.
Sora 2 – Content mit Promis wird eingeschränkt
Nach dem viralen Start von Sora 2 mit Inhalten zu Prominenten (Spongebob, Michael Jackson u. a.) hat OpenAI die Nutzung verschärft.
Inhalte mit realen Personen sollen künftig nur mit deren Beteiligung oder Lizenz erlaubt sein.
Ein Sora 2 Pro-Abo (200 $) ist angekündigt, aber ohne Datum.
Aktuell sind keine Celebrity-Videos über API oder Plattform erlaubt.
Alternative: Das Modell WAN 2.5 (z. B. über Hixfield) erlaubt weiter die Nutzung von Referenzframes für realistische Figuren – stabil, vielseitig und ideal zum Testen.
Achtung: Urheber- und Persönlichkeitsrechte beachten!
Open Source Highlight: Link 1T
Erstes Open-Source-Modell mit 1 Trillion Parametern (MIT-Lizenz).
Laut Benchmarks das größte bisher FP8-trainierte Modell (20 Trillionen Tokens).
Testbar auf Hugging Face oder ModelScope.
50 Milliarden aktive Parameter sollen reichen, um bestehende Modelle zu übertreffen.
Ein echter Meilenstein in Sachen Open Source KI.
NVIDIA ChronoEdit – Bildbearbeitung als Mini-Video
Neuer Ansatz: Statt direkt ein Endbild zu erzeugen, erstellt ChronoEdit ein kurzes Übergangs-Video, das die Bearbeitung logisch herleitet (z. B. Zoom-In, Bewegung, Farbänderung).
Das Resultat: Konsistentere Transformationen bei komplexen Edits.
Status: Paper veröffentlicht, Open-Source-Release angekündigt.
Grok Imagine 0.9 – Mobil mehr Freiheiten
Auf Desktop wurde die Funktionalität eingeschränkt.
In der mobilen App gibt es nach Altersverifizierung den „Spicy“-Modus mit mehr kreativer Freiheit.
Einfach über Twitter-Login aktivieren.
Mein Praxis-Fazit
Veo 3.1 Fast ist aktuell der Sweet Spot: 1/5 Kosten, besserer Ton und Prompt-Treue als Quality.
NotebookLM + Nano Banana = perfekte Kombi für Content-Repurposing, Lerninhalte und Erklärvideos.
WAN 2.5 bleibt eine stabile Alternative, wenn du Charaktere oder Szenen realistisch umsetzen willst.
ChronoEdit solltest du im Blick behalten – das kann Bildbearbeitung völlig neu definieren.
Inhalte aus dem Video, die du hier wiederfindest
Veo 3.1 über Google Flow nutzbar (Fast 20 Credits / Quality 100 Credits).
Fast-Modus liefert bessere Ergebnisse als Quality.
Gemini noch auf Veo 3 Fast Preview.
NotebookLM mit Nano Banana (Videozusammenfassungen, kinderfreundliche Prompts).
Nano Banana jetzt auch in Google Search.
Google AI Studio mit neuem UI (noch nicht EU-weit).
Sora 2 Einschränkungen bei Promis, WAN 2.5 als funktionierende Alternative.
Open-Source Modell Link 1T (1 Trillion Parameter).
NVIDIA ChronoEdit Paper veröffentlicht.
Grok Imagine 0.9 mobil mit erweitertem Modus.
Ich hoffe wir lesen uns beim nächsten Newsletter,
dein Zeldo