Videotechnologien im Kontext

Videos im Netz sind zum Standard geworden. Doch während es etwas stiller um die Videoseiten wird ergeben sich immer neue Einsatzmöglichkeiten und Herausforderungen im Videobereich. Video wird immer mehr zu einer Basis-Technologie auf die andere Dienste und Angebote aufsetzen. Daraus ergeben sich Geschäftsfelder, die in den letzten Monaten für viel Furore gesorgt haben. Allen voran die Videokommunikation, die durch Apple einen deutlichen Push bekommen hat, außerdem haben auch andere Felder wie das Screensharing, die Videotranscodierung oder die Videomanipulation neue Impulse bekommen.

Videokommunikation

Videocalls

Mit dem bevorstehenden Wechsel auf 4G Technologien im Mobilfunk stellt sich natürlich die Frage nach dem Killerfeature. Nachdem sich das Mobile Internet als 3G Treiber erwiesen hat müssen bandbreitenintensivere Dienste für den Abverkauf bei 4G sorgen. Diese Überlegungen hat sich auch Sprint gemacht, die ihre WiMax Initiative mit dem HTC EVO 4G vorantreiben. Dabei bietet das Gerät zwei wichtige Komponenten, die Video ins Zentrum rücken: Erstens eine Frontkamera zur Videokommunikation über Qik und zweitens einen HDMI Ausgang, der es erlaubt das Gerät direkt an den Fernseher anzuschließen. Diese Features erlauben es mit dem Handy Videocalls zu tätigen und seinen Fernseher bequem und einfach mit Medien zu bespielen indem man das Handy als Set-Top-Box-Ersatz nutzt.

Auch Apple geht mit dem neuen iPhone 4 in diese Richtung. Die Frontkamera ist der zentrale Unterschied zum iPhone 3 und mit Facetime will Apple der Videokommunikation (endlich) zum Durchbruch verhelfen. Dieses Anliegen hat auch Skype. Mit seiner neuen Plattformstrategie will Skype nicht mehr nur auf dem PC präsent sein sondern versucht direkt auf Consumer Electronic Geräten vorinstalliert zu werden. Dazu wird natürlich auf dem Fernseher die HD-Videochat Funktionalität in den Vordergrund gerückt.

All diesen Entwicklungen liegt eine robuste Videotechnologie zugrunde. Ohne die Fortschritte der letzten Jahre wäre keiner dieser Anwendungsfälle denkbar. Jede dieser Anwendungen benötigt eine schnelle und vor allem hochwertige Videocodierung. Zudem muss der Austausch der Videoinformationen quasi in Echtzeit erfolgen, Latenzzeiten sind vor allem bei Videokommunikation nicht akzeptabel, so dass die Video-Daten nicht nur schnell (de-)codiert werden müssen sondern auch noch schnell übertragen.

Screensharing

onlive

Screensharing wäre eigentlich streng genommen ein Unterpunkt der Videokommunikation. Angesichts der Möglichkeiten bietet es sich jedoch an noch einmal tiefer darauf einzugehen. Screensharing erlaubt es den Bildschirminhalt als Videostream an einen anderen Rechner zu übertragen. Die einfachste Form davon ist das klassische Screensharing, wie es zum Beispiel in Skype auch iChat implementiert ist. Mit Hilfe dieser Tools kann man seinen Bildschirm an einen anderen Nutzer übertragen. Doch das ist erst der Anfang.

Richtig Interessant wird es, wenn man Screensharing mit Services in der Cloud kombiniert. Das beste Beispiel dafür ist OnLive. Onlive erlaubt es auf so gut wie jeder Hardware extrem rechenintensive Spiele zu spielen indem der lokale Rechner lediglich den Input weiterreicht und den Videofeed des Servers darstellt. Natürlich ist der Service damit nicht an den Rechner gebunden sondern kann auf so gut wie jeder Plattform, die in der Lage ist Signale zu senden und Videos zu encodieren, genutzt werden. Crysis auf dem iPhone wird so ebenso Realität wie das gleiche Spiel auf dem Fernseher ohne Konsole lediglich mit einer kleinen günstigen Videobox.

Cloud-Gaming ist nicht das einzige Einsatzgebiet für Screensharing. Jede Anwendung, die enorme Rechenpower benötigt und gleichzeitig ein detailreiches Interface anbieten muss kann mittels Screensharing in die Cloud verlagert werden. Wichtig ist dabei natürlich, dass die Latenzen enorm gering sind, so dass zwischen Eingabe und Anzeige höchstens 250ms vergehen. Um das zu gewährleisten hat Onlive extra einen besonderen Videocodec entwickelt, der nicht auf einer Group of Pictures Kompression beruht (Spiele lassen sich nicht vorhersagen) und somit jederzeit aktuelle Bilder liefert.

Videotranscoding und -delivery

Das Anbieten von Videos im Internet wird im Moment nicht einfacher sondern zunehmend komplizierter. Anders als in der Vergangenheit, wo sich irgendwann ein Format gegen das andere durchgesetzt hat (z.B. VHS vs. Betamax) ist eine solche Entwicklung im Internet (noch?) nicht abzusehen. Viel mehr noch könnte es passieren, dass immer mehr Formate, Plattformen und Geräte bedient werden müssen. Ogg Theora, WebM, DivX und H.264 sind nur vier der möglichen Videoformate. Hinzu kommen verschiedenste Plattformen für Handys, Fernseher, DVD-Player und Spielekonsolen, die alle bedient werden wollen. Diese Komplexität wird in nächster Zeit noch weiter steigen bevor es besser wird.

Der „Plattformkampf“ zwischen HTML5 und Flash hat gerade erst eine neue Wendung genommen. Zuerst sah es so aus als sei sich die Internetgemeinde einig und Flash dem Untergang geweiht. Doch nachdem YouTube gerade erklärt hat, warum HTML5 Flash in den nächsten Jahren nicht ersetzen wird dürfte klar sein, dass jeder Publisher von Videoinhalten mindestens zwei Plattformen wenn nicht sogar mehr unterstützen muss, will er dass seine Videos auf allen Geräten abspielbar sind. Das Bedeutet nicht nur, dass Videos zunehmend in unterschiedlichen Formaten vorliegen müssen sondern auch, dass die gesamte Logik um Videos wie Player, Tracking, AdServing und Streaming für jede Plattform aufbereitet werden muss.

Während dies eine schmerzhaft Entwicklung für Videoproduzenten ist, ist sie Vorteilhaft für alle Anbieter von Whitelabel Videolösungen. Nicht umsonst sind Ooyala, Brightcove und Co. ganz vorne mit dabei, wenn es darum geht Videos und Werbung in HTML5 auszuliefern oder Videos auf das iPhone oder Android zu bringen. Je Komplexer die Technologie wird umso mehr werden Videoanbieter versuchen sich externes Know-How und fertige Lösungen einzukaufen um nicht für jede Plattform und jedes Format selbst tätig werden zu müssen.

Videomanipulation und -analyse

augmented_reality

Während es bei der Videokommunikation und beim Screensharing vor allem auf die schnelle Übertragung von Videos ankommt liegt der Fokus bei der Videomanipulation auf der Bildmanipulation und -analyse. Dienste wie YouTube analysieren Videos im Detail um zum Beispiel Urheberrechtsverletzungen festzustellen (Tipp: Gespiegelte Videos erkennt das System (noch) nicht). Zukünftig sollen diese Systeme auch Fragen beantworten können wie Wer ist Teil des Videos? Welche Szenen beinhaltet das Video? und Welche anderen Videos wurden verarbeitet? um darüber die Videosuche akkurater gestalten zu können.

kinet

Auf der anderen Seite ermöglicht die Videoanalyse und -manipulation in Echtzeit augmented Reality Anwendungen. Die Bilddaten werden dazu entweder ergänzt um zusätzliche Informationen oder mit anderen Videobildern kombiniert, so dass sich eine neue Realität ergibt. Echtzeit ist erforderlich damit der User ein flüssiges Erlebnis erhält. Im einfachsten Fall wird die Videoinformation nur durchgeleitet und neue Ebenen auf das Videobild gelegt. Im komplexesten Fall werden die Bildinformationen analysiert und manipuliert.

Im Moment machen vor allem Spiele von diesen Möglichkeiten gebrauch, die auf den neuen Motion Controllern wie Microsofts Kinect oder Sonys PS3 Move basieren und den Nutzer durch eine Kamera ins Spiel versetzen. Daneben nutzen auch erste Handyanwendungen vergleichbare Technologien und matchen Videos mit Umgebungsinformationen.

Video ist in diesen Bereichen nicht mehr der primäre Fokus der Anwendungen sondern nur noch ein Mittel zum Zweck beziehungsweise lediglich ein „Hintergrund“ auf den Informationen projiziert werden.

Videotechnologie als Enabler

Die vier angesprochenen Bereiche sollen die Spannweite der Entwicklung zeigen. Während das reine Anbieten von Videos immer mehr zu einer Commodity wird ergeben sich interessante Geschäftsfelder sowohl auf Basis von Videos als auch im Technologie-Bereich der Videos zugrunde liegt. Das eine Feld setzt Videotechnologien für die direkte Kommunikation und das Cloud-Computing ein während das andere Geschäftsfeld versucht Videos zu ergänzen, zu manipulieren und zu veredeln. Beide Felder stehen noch am Anfang haben aber vielversprechende Implikationen.

Dieser Beitrag erscheint im Rahmen der monatlichen Gugel-Kolumne für das Blog des eVideo Projekts der HTW Berlin.


Weitere Fragen?

Haben Sie Fragen zu meiner Tätigkeit oder benötigen meine Unterstützung?

info@gugelproductions.de