Veo 3.1 in Deutschland: Was jetzt wirklich besser ist (und was nicht)

Veo 3.1 mit besserem Ton/Bild zum gleichen Preis, NotebookLM-Updates, Sora 2-News, WAN 2.5 & mehr – kompakt, praxisnah, ohne Hype.

Hallo mein unabhängiger Freund,

hier kommt dein klare-Kante-Update zur neuen Veo 3.1 – jetzt auch in Deutschland verfügbar!
Du bekommst hier alles, was du wissen musst: die echten Unterschiede, Kosteneffizienz, Prompt-Tipps und die wichtigsten KI-News der Woche.
Dieser Newsletter ist eine vollwertige Alternative zum Video und ergänzt es um konkrete Workflows und Einschätzungen, damit du sofort produktiv loslegen kannst.

Veo 3.1 – was wirklich neu ist
Kurz gesagt: Gleiche Kosten wie Veo 3.0, aber deutlich bessere Prompt-Treue, Tonqualität und Bildtiefe – besonders im Fast-Modus.

So nutzt du Veo 3.1 in Deutschland (über Google Flow):

  1. In Google Flow das Modell Veo 3.1 (Fast oder Quality) auswählen.

  2. Fast-Modus: 20 Credits / Clip
    Quality-Modus: 100 Credits / Clip
    → Gleiche Preise wie zuvor bei Veo 3.0.

  3. Gemini zeigt aktuell noch Veo 3 Fast Preview (mit 3 kostenlosen Generierungen). Veo 3.1 wird dort in Kürze nachgezogen.
    Falls es in Flow nicht angezeigt wird: Seite mehrfach neu laden.

Wenn du die Unterschiede zwischen Veo 3.0 und 3.1 live sehen und hören willst,
findest du den direkten Vergleich in meinem Video hier:

Fast vs. Quality – das echte Kostenverhältnis
Tests zeigen:

  • Fast-Modus liefert bessere Ergebnisse als der Quality-Modus – klarere Bewegungen, korrekte Richtung, realistischere Licht- und Toneffekte.

  • Prompt-Treue ist signifikant höher.

  • Empfehlung: Verwende Fast, spare Credits und gewinne an Konsistenz.

JSON-Prompts aus Veo 3 funktionieren weiterhin vollständig in Veo 3.1.
Du kannst wie gewohnt im Hoch- oder Querformat arbeiten und bis zu vier Videos pro Prompt erzeugen.

Schnellstart-Prompts, die richtig greifen
„Back view of a cyber-panda looking over a neon city; thunder & lightning; flying cars to the left; hologram burger ad; cinematic audio ambience.“
„Close-up, slow dolly-in on a burger stand at night; rain hits lens; neon reflections; crowd murmur; deep warm announcer voice says: ‘Bossburger regiert die Nacht.’“

Prompt-Tipp: Bewegungsrichtung, Licht, Soundkulisse und Kamerabewegung explizit formulieren – kurze Sätze, aktive Verben.

NotebookLM Update – Videozusammenfassungen mit Nano Banana
Neu: NotebookLM erstellt jetzt aus einem YouTube-Link automatisch Videozusammenfassungen mit einheitlichem Stil, Bildern und optionaler Audioversion.
Zusätzlich kannst du über den Prompt-Editor die Tonalität anpassen (z. B. „kinderfreundlich“, „wissenschaftlich“ etc.).

So nutzt du es praktisch:

  1. YouTube-Link einfügen.

  2. Auto-Summary prüfen, dann Video-Summary erstellen.

  3. Mit dem Stift-Symbol den Stil anpassen.

  4. Einstellungen für Kontrast und Look individuell verfeinern.

Nano Banana ist jetzt auch in Google Search integriert – z. B. Foto aufnehmen, Banane-Icon klicken, Szene umgestalten.
Die Funktion ist in der EU aktiv.

Google AI Studio – neues Design, mehr Effizienz
Das User Interface wurde überarbeitet:

  • Neue Kachelstruktur mit Schnellzugriffen auf Playground, App-Erstellung und Usage-Tracking.

  • Aktuell noch kein EU-Rollout, aber auf OS-Accounts bereits live.

  • Ergebnis: Weniger Klicks, schnellere Experimente.

Sora 2 – Content mit Promis wird eingeschränkt
Nach dem viralen Start von Sora 2 mit Inhalten zu Prominenten (Spongebob, Michael Jackson u. a.) hat OpenAI die Nutzung verschärft.
Inhalte mit realen Personen sollen künftig nur mit deren Beteiligung oder Lizenz erlaubt sein.
Ein Sora 2 Pro-Abo (200 $) ist angekündigt, aber ohne Datum.
Aktuell sind keine Celebrity-Videos über API oder Plattform erlaubt.

Alternative: Das Modell WAN 2.5 (z. B. über Hixfield) erlaubt weiter die Nutzung von Referenzframes für realistische Figuren – stabil, vielseitig und ideal zum Testen.
Achtung: Urheber- und Persönlichkeitsrechte beachten!

Open Source Highlight: Link 1T

  • Erstes Open-Source-Modell mit 1 Trillion Parametern (MIT-Lizenz).

  • Laut Benchmarks das größte bisher FP8-trainierte Modell (20 Trillionen Tokens).

  • Testbar auf Hugging Face oder ModelScope.

  • 50 Milliarden aktive Parameter sollen reichen, um bestehende Modelle zu übertreffen.
    Ein echter Meilenstein in Sachen Open Source KI.

NVIDIA ChronoEdit – Bildbearbeitung als Mini-Video
Neuer Ansatz: Statt direkt ein Endbild zu erzeugen, erstellt ChronoEdit ein kurzes Übergangs-Video, das die Bearbeitung logisch herleitet (z. B. Zoom-In, Bewegung, Farbänderung).
Das Resultat: Konsistentere Transformationen bei komplexen Edits.
Status: Paper veröffentlicht, Open-Source-Release angekündigt.

Grok Imagine 0.9 – Mobil mehr Freiheiten

  • Auf Desktop wurde die Funktionalität eingeschränkt.

  • In der mobilen App gibt es nach Altersverifizierung den „Spicy“-Modus mit mehr kreativer Freiheit.

  • Einfach über Twitter-Login aktivieren.

Mein Praxis-Fazit

  • Veo 3.1 Fast ist aktuell der Sweet Spot: 1/5 Kosten, besserer Ton und Prompt-Treue als Quality.

  • NotebookLM + Nano Banana = perfekte Kombi für Content-Repurposing, Lerninhalte und Erklärvideos.

  • WAN 2.5 bleibt eine stabile Alternative, wenn du Charaktere oder Szenen realistisch umsetzen willst.

  • ChronoEdit solltest du im Blick behalten – das kann Bildbearbeitung völlig neu definieren.

Inhalte aus dem Video, die du hier wiederfindest

  • Veo 3.1 über Google Flow nutzbar (Fast 20 Credits / Quality 100 Credits).

  • Fast-Modus liefert bessere Ergebnisse als Quality.

  • Gemini noch auf Veo 3 Fast Preview.

  • NotebookLM mit Nano Banana (Videozusammenfassungen, kinderfreundliche Prompts).

  • Nano Banana jetzt auch in Google Search.

  • Google AI Studio mit neuem UI (noch nicht EU-weit).

  • Sora 2 Einschränkungen bei Promis, WAN 2.5 als funktionierende Alternative.

  • Open-Source Modell Link 1T (1 Trillion Parameter).

  • NVIDIA ChronoEdit Paper veröffentlicht.

  • Grok Imagine 0.9 mobil mit erweitertem Modus.

Ich hoffe wir lesen uns beim nächsten Newsletter,
dein Zeldo