# Video-Workflow-Recherche

Stand: 1. Mai 2026

## Kurzfazit

Für diese Kampagne ist ein hybrider Workflow am stärksten:

1. **Remotion** für wiederholbare, datengetriebene Video-Kompositionen aus SVGs, Texten, Timings und Audiodateien.
2. **OpenAI Text-to-Speech oder echte Sprecheraufnahme** für Voiceover.
3. **FFmpeg** für robuste Exporte, technische Konvertierung und Fallback-Rendering.
4. **CapCut oder DaVinci Resolve** nur als manuelle Schnellstrecke, wenn ein Clip einmalig und händisch feinmontiert werden soll.

Warum: Unsere Kampagne hat viele wiederkehrende Bausteine: Claim, Quelle, Overlay, SRT, CTA, 9:16-Format. Das sollte nicht jedes Mal per Hand in einer Timeline neu gebaut werden.

## Quellenlage

| Thema | Befund | Quelle |
| --- | --- | --- |
| Programmatic Video | Remotion rendert echte MP4-Videos und kann lokal, serverseitig oder serverless rendern. | https://www.remotion.dev/docs/render |
| Datengetriebene Videos | Remotion kann Inhalte parametrisieren und per Props in Kompositionen geben. | https://www.remotiondocs.com/ |
| Programmatic Render API | `renderMedia()` rendert Video oder Audio programmatisch mit Codec, Output-Pfad und Input-Props. | https://www.remotion.dev/docs/renderer/render-media |
| Audio in Remotion | `<Html5Audio>` kann Audiodateien aus dem `public/`-Ordner in Videos einbinden. | https://www.remotion.dev/docs/audio |
| Captions in Remotion | Remotion unterstützt Captions, Import aus `.srt`, Anzeige und Export. | https://www.remotion.dev/docs/captions |
| Remotion Lizenz | Kostenlos für Einzelpersonen, Non-Profit/Not-for-Profit, Organisationen bis 3 Mitarbeitende und Evaluation; sonst Firmenlizenz prüfen. | https://www.remotion.dev/docs/license |
| FFmpeg | FFmpeg unterstützt Filter wie `drawtext`; Text kann auch aus Dateien geladen werden, um Shell-Escaping zu vermeiden. | https://ffmpeg.org/ffmpeg-filters.html |
| FFmpeg concat/image2 | FFmpeg unterstützt `concat` und `image2`, also Sequenzen und Zusammenschnitt aus Dateien. | https://ffmpeg.org/ffmpeg-formats.html |
| CapCut Untertitel | CapCut Web/Desktop kann `.srt` importieren und in synchronisierte, editierbare Textblöcke umwandeln. | https://www.capcut.com/help/how-to-import-subtitles |
| OpenAI TTS | Die OpenAI Audio API bietet einen Speech-Endpunkt; TTS muss als KI-generierte Stimme kenntlich gemacht werden. | https://developers.openai.com/api/docs/guides/text-to-speech |
| YouTube Shorts | YouTube klassifiziert seit 15. Oktober 2024 quadratische oder vertikale Videos bis 3 Minuten als Shorts. | https://support.google.com/youtube/answer/15424877 |

## Entscheidung

Ich würde **nicht** primär mit KI-Video-Generatoren wie Runway, Sora, Veo oder generativen Personenbildern arbeiten. Für diese Kampagne ist das Risiko zu hoch, dass Bilder als manipulativ gelesen werden oder vom belegbaren Kern ablenken.

Stattdessen: klare Motion-Grafik, Dokumentenästhetik, animierte Typografie, SVG-Motive, Quellenkarten, Voiceover, Untertitel.

## Empfohlene Pipeline

### 1. Datenquelle

Wir nutzen vorhandene Dateien:

- `content/video-shotlist.csv`
- `content/video-storyboards.md`
- `video/voiceover-skripte.md`
- `video/voiceover-manifest.csv`
- `video/captions/*.srt`
- `assets/social/*.svg`
- `content/fakten-und-quellen.md`

Zusätzlich sollte eine maschinenlesbare Datei entstehen:

`video/video-manifest.json`

Sie enthält pro Clip:

- ID
- Titel
- Länge
- Szenen
- Asset pro Szene
- Overlay-Text
- Sprechertext
- Quelle oder Claim-Matrix-Nr.
- SRT-Datei
- Audio-Datei

### 2. Voiceover

Zwei Wege:

| Weg | Vorteil | Nachteil |
| --- | --- | --- |
| echte Sprecheraufnahme | glaubwürdiger, politischer, weniger KI-Gefühl | braucht Aufnahmezeit und Nachbearbeitung |
| OpenAI TTS | schnell, wiederholbar, gut für Entwürfe und A/B-Varianten | muss als KI-Stimme kenntlich gemacht werden |

Mein Vorschlag:

- Entwürfe mit TTS rendern.
- Finalclips entweder mit menschlicher Stimme oder bewusst gekennzeichneter KI-Stimme veröffentlichen.
- Audio in `video/audio/` ablegen.

### 3. Rendering mit Remotion

Remotion-Komposition:

- 1080 x 1920 px
- 30 fps
- pro Szene eine `Sequence`
- SVG als Hintergrund oder zentrales Motiv
- Overlay-Texte als echte HTML/CSS-Typografie
- Quellenhinweise klein, aber lesbar
- Audio über `<Html5Audio>`
- Captions aus SRT oder aus dem Manifest als eingebrannte Untertitel

Beispielstruktur:

```text
video-render/
  package.json
  src/
    Root.tsx
    CampaignShort.tsx
    scenes/
      FactScene.tsx
      QuoteScene.tsx
      CtaScene.tsx
  public/
    assets/
    audio/
    captions/
  render.mjs
```

### 4. FFmpeg als technische Schicht

FFmpeg bleibt wichtig für:

- Audio normalisieren
- SRT einbrennen, falls Remotion nicht genutzt wird
- Vorschauclips zusammensetzen
- Render-Output prüfen
- MP4 nach H.264/AAC konvertieren

Wichtig: Wenn wir `drawtext` nutzen, sollten längere Texte aus Dateien geladen werden. Die FFmpeg-Doku empfiehlt das, um Escape-Probleme in Shell-Befehlen zu vermeiden.

### 5. Manuelle Schnitt-Fallbacks

CapCut:

- gut für schnelle manuelle Social-Versionen
- kann SRT importieren
- geeignet für Untertitel-Feinschliff

DaVinci Resolve:

- besser für präzise Schnitt-/Audioarbeit
- sinnvoll, wenn menschliche Sprecheraufnahme entrauscht, gemischt und final gemastert wird

Canva:

- gut für schnelle Grafikanpassungen
- nicht mein bevorzugter Final-Render, weil reproduzierbare Versionierung schwächer ist

## Konkreter Produktionsplan für unsere vier Shorts

### Phase 1: Prototyp

1. `video/video-manifest.json` aus Shotlist und Storyboards erstellen.
2. Remotion-Projekt `video-render/` anlegen.
3. Einen generischen Clip-Renderer bauen.
4. Short 2 "Die Drehtür" als Pilot rendern.
5. Mobile Lesbarkeit prüfen.

### Phase 2: Audio und Untertitel

1. Voiceover als TTS-Entwurf erzeugen oder aufnehmen.
2. Audio-Datei in `video/audio/` ablegen.
3. vorhandene SRT gegen Audio prüfen.
4. Captions einbrennen.

### Phase 3: Batch-Render

1. Alle vier Shorts aus Manifest rendern.
2. Export nach `video/output/`.
3. Prüfen:
   - 1080 x 1920
   - 30 fps
   - H.264/AAC
   - Untertitel lesbar
   - letzte Szene enthält Forderung
   - jede harte Aussage hat Claim-Matrix-Bezug

## Warum nicht zuerst CapCut?

CapCut wäre schnell für einen Clip. Aber sobald wir zehn Varianten brauchen, wird Handarbeit fehleranfällig:

- Quellenhinweise können abweichen.
- Untertitelstile driften.
- Timings sind schwer nachvollziehbar.
- Änderungen an Claims müssen manuell in mehreren Projekten nachgezogen werden.

Mit Remotion ändern wir den Claim oder die Quelle einmal im Manifest und rendern neu.

## Nächster sinnvoller Schritt

Ich würde als Nächstes:

1. `video/video-manifest.json` anlegen,
2. eine minimalistische Remotion-Renderstrecke bauen,
3. den ersten Pilotclip ohne Voiceover als stummes Motion-Graphic-Video rendern,
4. danach TTS oder Sprecheraufnahme einbauen.

Der Pilot sollte Short 2 "Die Drehtür" sein: wenige Claims, klares Motiv, geringeres Risiko als der Greenpeace-Gutachtenclip.
