Nettets video-problemer er løst: Google gør VP8-codec til open source

Glem H.264 og Ogg Theora. Nu kan alle frit bruge VP8 til video på nettet, efter Google har gjort codec'et til open source.

Problemerne med at finde en video-standard på internettet, som alle kunne blive enige om, ser ud til at være løst med et trylleslag fra Googles hånd.

Internet-giganten annoncerede onsdag aften på udviklerkonferencen I/O, at VP8-codec'et fremover er open source og kan bruges frit uden betaling. Det rapporterer The Register.

Trækket var ventet af mange, efter Google i august 2009 købte firmaet On2 for 550 millioner kroner. Hovedgevinsten var et video-codec i en kvalitet på højde med det licensbeskyttede codec H.264.

Google har parret VP8-codec'et med lyd kodet i Ogg Vorbis, der også er open source. Tilsammen kalder Google formatet WebM, og det er allerede taget i brug på det Google-ejede Youtube, hvor alle HD-videoer nu bliver vist i WebM-format.

Video-kampen på nettet lå i dvale i nogle år, da Flash som video-fremviser blev de facto-standard. Men med næste generation af HTML bliver det muligt at vise video direkte fra HTML-koden, uden plugins.
Det kræver bare, at brugeren har det codec, videoen er komprimeret med, og dermed begyndte balladen.

H.264-formatet, som bliver brugt i Flash og i mange andre sammenhænge, tilhører MPEG LA-organisationen, som ejes af blandt andet Apple og Microsoft. H.264 kan bruges frit indtil 2016, men hvilke licenskrav, der kan komme derefter er ukendt, og derfor er mange ikke trygge ved at satse på H.264.

Indtil nu var eneste open source-alternativ formatet Ogg Theora, der bygger på en ældre teknologi fra On2. Dermed var kvaliteten af komprimeringen ikke på højde med nyere codec.

Google har allerede frigivet udviklerkit og kildekode til WebM.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Kommentarer (36)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
#1 Lars Bjerregaard
  • 0
  • 0
#4 Niels Dybdahl
  • ingen hardware understøttelse

Ja hardwareunderstøttelsen er vigtig. I dag kan jeg kun afspille H.264 TV fordi mit grafikkort understøtter dekodningen. Og ligeledes har min mobiltelefon dedikeret understøttelse for H.264 dekodning.

VP8 har ssv lignende høje beregningskrav som H.264, så den får det svært. Men hvis patentsituationen er afklaret, så kan det være at grafik-CPU-producenterne begynder at tage VP8 til sig.

  • 0
  • 0
#5 Brian Matzon

Kvalitet er lidt et problem - og der er ikke nogen direkte løsning, specielt i forhold til at formatet er låst fast. Vi må vel vente på at næste "version" af formatet laver de nødvendige forbedringer der skal til?

mht patenter, så er situationen jo den samme med h264. Godt nok er der MPEG-LA som har en milliard million patenter i deres patent-pool til h264, MEN det forhindrer jo ikke Hr. Hansen i at have et patent på noget som H264 bruger, uden at være med i deres patent-pool.

Det var det der skete med VC1 (microsoft). Det minder også om h264 men var forskellig "nok" til man ikke mente at der ville være problemer der. Nogle måneder efter kom der andre der mente at VC1 brugte patenterede teknologier.

Det samme kan ske for VP8.

Så længe vi har software patenter er det ingen der kan sige sig fri. Ikke VP8, VC1 eller H264.

Du får ikke nogen patent skadesløsholdelse af hverken Google (VP8), MPEG-LA (H264, VC1).

Af en eller anden grund tror folk at man er fri for patent problematikken ved at betale ved kasse 1 til MPEG-LA, men det eneste man sikrer sig er at dem der er med i den patent-pool i det mindste ikke sagsøger dig.

  • 0
  • 0
#7 Niels Dybdahl

Så nu har jeg også kigget i Jans link: http://x264dev.multimedia.cx/?p=377

Et sted skrives der:

a pithy, if slightly inaccurate, description of VP8 would be “H.264 Baseline Profile with a better entropy coder”

Dvs at VP8 indeholder mange af de basale elementer fra H.264, men har udeladt nogle (ssv fordi de er dækket af patenter) og har forbedret nogle detaljer.

Thomas skriver:

Kan VP8 "opgraderes" rent kvalitetsmæssigt?

Ja det kan det jo så. Man kan jo altid tilføje de manglende elementer fra "rigtig H.264", f.eks når patenterne udløber. Men det vil jo så ikke være VP8 mere og vil ssv ikke kunne dekodes af dedikerede VP8-dekodere som man kan forestille sig bliver indbygget i GPUer.

I øvrigt kiggede jeg lidt på sammenligningen i billedkvalitet:

Sådanne sammenligninger skal man passe på med. Både i VP8 og H.264 er der flere forskellige muligheder for at indkode på alt efter hvor meget CPU-tid man vil bruge på opgaven. De bygger også begge på DCT hvor man kan vælge god kvalitet, men så fylder billedet mere eller lavere kvalitet med mindre mængde data.

Så uden informationer om indkodningstid og kompressionsfaktor giver det ikke mening at sammenligne de to billeder.

  • 0
  • 0
#8 Jakob Damkjær

Bare fordi en pressemedlelse fra google siger noget betyder det ikke at være virkelighed...

Læs hele den her http://x264dev.multimedia.cx/?p=377

Det er ikke noget skønmaleri og ja det er en h.264 opensource encoder udvikler.. Men det er sagligt, logisk opbygget og de få steder hvor vp8 har fået en god ide giver de dem credit for det.

Men måske er vp8 ikke Jesus på rulleskøjter og hvis vi nu alle prøver at huske hvor "gratis" android OS var for HTC...

Så kunne man sige at vp8 er et draft spec der kan ændres til det bedre... Men nej bitstream formatet er endeligt og den encoder/decoder der følger med er ikke  ny, den er mindst 6 år gammel så det vp8 man får idag er der ikke umiddelbart nogle lavt hængende frugter ved billedkvalitets mægssigt...  så det er stort set den samme vp8 man får imorgen.

Er den elendig: nej...  Er den bedre end de opdaterede h.264 encodere: nej...  Er den garenteret ikke dækket af patenter: nej...  Er den allerede en del af nettet: ja...

Go figure.... lad os se om den virkelig er patent fri og om den faktisk kan på en meningsgivende måde hardware implementeres.

Men so far er det en masse ifs buts og maybes. Så sammenlignet med h.264 med masse hardware acceleration bredt implementeret og implementeret af mange i både hardware og software, både decodere og encodere partnere får vi at se hvor meget vægt Google har at kaste rundt med.

/Jakob

  • 0
  • 0
#9 Bo Normann Jensen

@Jakob

Men måske er vp8 ikke Jesus på rulleskøjter og hvis vi nu alle prøver at huske hvor "gratis" android OS var for HTC..

Er det sluppet ude hvad problemet var? Jeg vidste ikke det var android, der var problemet. Jeg gættede på Exchange Active-sync.

Kan du ikke give et link!

  • 0
  • 0
#10 Jimi Hansen

Af en eller anden grund tror folk at man er fri for patent problematikken ved at betale ved kasse 1 til MPEG-LA, men det eneste man sikrer sig er at dem der er med i den patent-pool i det mindste ikke sagsøger dig.

Eftersom alle de store virksomheder (26 stk.) er med i MPEG-LA, er det suverænt det sikreste valg.

http://www.zdnet.com/blog/bott/h264-patents-how-much-do-they-really-cost...

  • 0
  • 0
#11 Jesper Louis Andersen

Men det vil jo så ikke være VP8 mere og vil ssv ikke kunne dekodes af dedikerede VP8-dekodere som man kan forestille sig bliver indbygget i GPUer.

Lige præcis den del er mindre bekymrende. Moderne GPU'er er ikke låst fast til kun at kunne lave en bestemt ting, så det kræver bare en softwareopdatering.

Mere bekymrende er derimod specialiserede dekoderchips som dem man ser i smartphones.

  • 0
  • 0
#12 Brian Matzon

Ja, det er et sikrere valg - men det forhindre jo stadigvæk ikke andre i at have patenter på noget i h264.

I en tænkt situation, kan man forstille sig at Jeg har et patent på noget h264 værk, lad os bare sige en del algoritme i entropi encodningen.

Såfremt jeg ikke ønsker at dele denne teknologi - endnu - skal jo lige presse dem lidt - så kan jeg anlægge sag mod samtlige brugere af h264 for patent krænkelse. Dette vil betyde at Apple og Micrsoft vil blive tvunget til at stoppe med at bruge h264 - i dens nuværende specifikation.

Når det nu er sagt, så er det mange måde at løse problemet på, herunder opkøb, afpresning ifbm. andre patenter osv. osv. Men det ændrer ikke på den underligende problem stilling.

Du bør stille dig selv spørgsmålet: Hvorfor giver MPEG-LA dig ikke en skadesløsholdelse i forbindelse med at du licenserer h264? Det er det ingen af firmaerne der tør at gøre - ej heller Google ifbm VP8. Konsekvenserne er uoverskuelige.

  • 0
  • 0
#13 Torben Mogensen Blogger

Mere bekymrende er derimod specialiserede dekoderchips som dem man ser i smartphones.

Ifølge ARM er VP8 allerede optimeret til Cortex-A seriens NEON SIMD instruktionssæt, så de fleste smartphones skulle allerede kunne vise formatet. Måske ikke ligeså smertefrit, som hvis man bruger en dedikeret hardwaredekoder, men sikkert godt nok.

  • 0
  • 0
#14 Jakob Damkjær

At implementere vp8 på android hvorfor er det så først i Q4 at vp8 understøttelse kommer til android OS (2.3) ?

VP8 vil bare blive endnu en grund til at bruge flash.... HTML5/internettet: 0 Adobe: 1

Med alle de store ord og pompøse intro har Google formået at kaste taget og HTML5 generelt tilbage i limbo.

og den enkle løsning som står tilbage som vil virke næsten alle steder er.... Adobe®®® Flash®®® nu med ekstra registered trademark på.

NB! før alle flash er åbent horderne kaster sig over mig så vis mig venligst den åbne implementation af flash der indeholder DRM delene af flash, i ved dem der pt er den eneste grund til at bruge flash... som man også kan sovse vp8 ind i hvis man insistere på at give sine brugere dårligere kvalitet video.

(den enkle, ikke den mest batterisparende, med den bedste kvalitet over flere platforme, der er kontroleret 100% af Adobe, men den enkle og som virker rimeligt på Windows).

Og når folk alligevel køre video i flash, så er der ingen grund til at vælge andet end det codec med den bedste kvalitet (h.264)... specielt hvis det er en TV station der alligevel har h.264 versionen liggende til broadcast signalet.

Tak skal du have Google, håber du bliver ramt af en lastbil.

At YouTube reencoder alt i vp8 gør ingen diffrentierende forskel. For de encoder alt i alle standarter (undtagen ogg theora, hvilket viser hvor dårligt den encoder er). De holder ikke op med at reencode i det codec med den bedste kvalitet bare for at pisse Apple af..

Husk på at Apple har givet Google en gylden mulighed for at hævde sig på mobil markedet ved at afvise flash, så hvis Google gør noget så er det at sende blomster til Cupertino.

Hvis YouTube gjorde noget så idiotisk ville de konkurerende video sites (Vimeo/Daylimotion osv osv) få det meget nemmere i konkurancen om internet video hostingen ved at kunne slå på kvaliteten.

At YouTube gør det giver dog lidt håb for fremtiden for med lidt held så vil alt bare spille alle steder hardware decoded og hvor brugeren selv vælger hvilken decoder de vil bruge og så fodres de med den passende fil eller stream.

Ja der skal et middleware software lag ind for at bestemme hvilken fil/stream man skal hente men det eksistere allerede idag.

Dvs. de eneste der er de rigtige vindere idag er Adobe og harddisk producenterne for det blev lige halvejs obligatorisk at ha endnu en kopi af video filerne arkiveret og der kom en grund mere til at bruge flash...

/Jakob

  • 0
  • 0
#15 Anton Lauridsen

Som der er nogen der nævner så skulle H.264 være et sikkert valg, problemet er bare at med de patent og royalty begrænsninger der er i forb. med H.264 er det utænkeligt at codec'et vil blive accepteret som en del af HTML5.

W3C er nødt til at få organisationer som Mozilla foundation med, disse organisationer er, pga. deres software licens, ikke i stand til at inkludere understøttelse af H.264 i deres browser (Hvad der kunne forlene nogen til at tro at det var en primær årsag til at nogen skubber så hårdt på for H.264)

Jeg har kort kigget efter den licens som WebM er frigivet under, men har ikke umiddelbart kunnet finde den, så om der er patent problemer eller ej kommer vel meget an på hvilken licens Google releaser under.

Ad. manglende hardware understøttelse, så er "hardware" dekodningen mig bekendt firmware baseret, så et langt stykke hen af vejen er det vel et spørgsmål om en opdatering af driverne.

  • 0
  • 0
#16 Anton Lauridsen

Det lykkedes mig at grave licenserne op til WebM

Den er to/tre delt. Selve specifikationen er dækket af Creative Commons Attribution og en patent klausul. Selve implementationen er en std. BSD licens med den samme patent klausul.

Patent klausulen giver ubegrænsede rettigheder til de af Googles patenter der dækker WebM, med den begrænsning at rettighederne bortfalder hvis man anlægger en patent sag mod brugen af WebM. Dvs. at alle egentlige med/mod spillere (Microsoft og Apple) frit kan bruge WebM, med mindre de vælger at bruge deres patenter til at bekæmpe WebM. Så hvis de vil med på "WebM vognen" kan de ikke bruge deres patenter mod WebM.

Tilbage står så div. patent hajer der måtte have skjulte patenter (noget der er muligt i USA). Desværre findes der ikke nogen måde helt at beskytte sig, så for dem der ønsker FUD, vil det selvfølgelig være muligt.

  • 0
  • 0
#17 Jørgen Ramskov

Mht. til den analyse der er lavet af en x.264 udvikler, så har Monty/Xiphmont (udvikler på Ogg Theora), kommenteret kort på det i en kommentar til dette blog indlæg: http://xiphmont.livejournal.com/50239.html

=== CITAT === "Do you believe that VP8 is more or less a rip off h264"

No. That's pretty serious hyperbole. Some design chunks look very similar even to the trained eye, but details matter in both code and patents. DS ignored the details. === CITAT ===

  • 0
  • 0
#18 Niels Dybdahl

Mht. til den analyse der er lavet af en x.264 udvikler,... "Do you believe that VP8 is more or less a rip off h264"

Det er jo ikke just det udvikleren skriver. Jeg tror at det bedre kan beskrives gennem hans forklaring:

basically all modern video formats work via some variation on the following chain of steps: Encode: Predict -> Transform + Quant -> Entropy Code -> Loopfilter Decode: Entropy Decode -> Predict -> Dequant + Inverse Transform -> Loopfilter

Derefter går hvert enkelt step igennem og sammenligner H.264 med VP8 og kommer til den konklusion af VP8 er på højde med baseline H.264 i de fleste områder men er bedre mht entropienkodningen.

Jeg synes at han nævner rigeligt med forskelle til at det ikke føles som et "rip-off" men nærmere er at VP8 og H.264 har fælles forfædre.

  • 0
  • 0
#19 Jakob Damkjær

Cherry picking er ikke pænt

og

"Do you believe that VP8 is more or less a rip off h264"

er ikke korrekt citeret fra den oprindelige artikkel...

Men der er utroligt mange punkter hvor vp8 gør en del af det som h.264/x264 gør...

De bruger kun ripoff om Intra Prediction delen af vp8 og der virker det som om x264 udviklerene har noget at ha det i....

=== CITAT === Intra Prediction

Intra prediction is used to guess the content of a block without referring to other frames. VP8’s intra prediction is basically ripped off wholesale from H.264: the “subblock” prediction modes are almost exactly identical (they even have the same names!) to H.264’s i4×4 mode, and the whole block prediction mode is basically identical to i16×16. Chroma prediction modes are practically identical as well. i8×8, from H.264 High Profile, is not present. An additional difference is that the planar prediction mode has been replaced with TM_PRED, a very vaguely similar analogue. The specific prediction modes are internally slightly different, but have the same names as in H.264.

Honestly, I’m very disappointed here. While H.264’s intra prediction is good, it has certainly been improved on quite a bit over the past 7 years, and I thought that blatantly ripping it off was the domain of companies like Real (see RV40). I expected at least something slightly more creative out of On2. But more important than any of that: this is a patent time-bomb waiting to happen. H.264’s spatial intra prediction is covered in patents and I don’t think that On2 will be able to just get away with changing the rounding in the prediction modes.

Verdict on Intra Prediction: Slightly modified ripoff of H.264. Somewhat worse than H.264 due to omission of i8×8. === CITAT ===

Her er resten af citatet fra ogg theora udvikleren. Læs den første sætning...

Wow vp8 virker som et kickass spec, når selv ogg theora udviklere mener det er uklart, for kort og hvor mange dele af formatet kun er forklaret sumarisk..

og et meget stort spørgsmålstegn ved om filformatet er frosset eller ej.

En del af det svar ligger i at Google prøver at få hardware producenterne til at lave noget i forgårs og så dur det ikke hvis filformaet ændre sig radikalt for så går alting i hårknude...

Dette: "That said, despite Google's claim that things are already frozen, I'm sure that if a showstopper popped up they'd change their minds."

Lyder ikke som om filformatet er oppe til diskussion pt. Men det kan selvfølgeligt ændre sig.

IMO lyder det her som et kæmpe harmonikasammenstød på den globale informationssupermotorvej der bare venter på at ske...

Praktisk uimplementerbart da specifikationen er noget rod og det formentligt kun vil være google kodebasen der kan producere "kompatible" datafiler og for dårlig kvalitet til at være konkurrence dygtig med iso standardiserede video standarder. Som specifikationen ser ud nu ville den formentligt ikke kunne iso standardiseres, da det bla kræver en seperat spec og implementation.

Andre fantastiske dele af resten af citatet: "because no one documented the hard parts (so no one else could check them)"

vi krydre med en kommentar fra x264 developeren:

"Some parts even explicitly refuse to fully explain a particular feature, pointing to highly-optimized, nigh-impossible-to-understand reference code for an explanation. There’s no way in hell anyone could write a decoder solely with this spec alone."

Så de langhårede dele af specet er ikke defineret og består af spagettikodet super optimeret kode, der ikke er anoteret eller forklaret. Så det har ikke været muligt at checke om der er bugs eller typos i det, men stadigvæk er der codefreeze...

Jeg har en sang der spiller i mit hoved (og jeg er klar over at det er et tveægget sværd)... det er Tim Christensens "Jump the Gun"...

/Jakob

=== CITAT ===

"(vp8) is imprecise, unclear, and overly short, leaving many portions of the format very vaguely explained."

Sadly, he's correct about this. We can fix the spec and write a good one after the fact, but this leaves up in the air how many bugs are undiscovered because no one documented the hard parts (so no one else could check them). Tim's been pouring over the code for weeks already and has caught a few such instances, I don't think any were major.

That said, despite Google's claim that things are already frozen, I'm sure that if a showstopper popped up they'd change their minds. I don't think there are any showstoppers. What we'll probably find in the future are instances of 'aw, geez, it would have been nice to change that if it wasn't too late.' We have some amount of experience dealing with that from Theora :-) === CITAT ===

  • 0
  • 0
#20 Flemming Frandsen

Når både Youtube og MS vil supportere WebM, så der er gode chancer for at det bliver understøttet af resten af spillerne.

Om h.264 går helt væk eller ej er ikke helt så vigtigt som at VP8 bliver det troværdige alternativ der gør at MPEG-LA ikke laver Unisys og begynder at kræve penge fra alle brugerne.

Desuden er det gavnligt at det endnu en gang er demonstreret hvorfor (software)patenter bør afskaffes og gøres ulovlige.

Tænk hvor meget hurtigere udbredelsen af ville være gået hvis der ikke var alle de problemer med patentsystemet.

  • 0
  • 0
#21 Anton Lauridsen

@Jakob Jeg forstår dine bekymringer omkring WebM, selvom jeg ikke kan kvalificere om der er tale om brødnid eller om virkelige problemer i spec'en.

Men hvad er alternativet? Det er jo meget godt at kritisere tingene, det bliver løsningen kun bedre af!

For mig at se er det godt at der stadig er flere år til at HTML5 skal være færdig, ellers så det meget sort ud for video tagget.

  • 0
  • 0
#22 Torben Mogensen Blogger

VP8’s intra prediction is basically ripped off wholesale from H.264: the “subblock” prediction modes are almost exactly identical (they even have the same names!) to H.264’s i4×4 mode, and the whole block prediction mode is basically identical to i16×16.

At de to koder er identiske, betyder ikek, at den ene har kopieret fra den anden. Begge parter kan have kopieret fra en tredjepart, f.eks. en videnskabelig artikel. Jeg kender ikke nok til videokodere til at sige, om det er tilfældet her, men at kalde det "rip off", bare fordi det ligner, er en lidt forhastet konklusion.

  • 0
  • 0
#23 Anton Lauridsen

Jo mere jeg tænker over "Diary of an x264 developer" jo mere usikker bliver jeg på om han virkelig har ret.

Udover en sammenligning mellem VP8 og h.264, så siger han at der er mangler i spec'en og at reference implementationen er uklar og har nogle små fejl.

Men..., jeg har endnu ikke set en spec. der ikke havde mangler eller huller, selv en fortæsket protokol som DNS har sine uklarheder, og de 6000-8000 sider til SOAP er heller ikke uden problemer.

Ligeledes har jeg første gang til gode endnu at opleve at en programmør har overtaget en anden mands kode ude at høre om at koden er fejlfyldt og uklar på sine steder.

Alt i alt, er det svært at få andet indtryk end at hver mor kan bedst lide sine egne børn.

  • 0
  • 0
#24 Jakob Damkjær

"Om h.264 går helt væk eller ej er ikke helt så vigtigt som at VP8 bliver det troværdige alternativ der gør at MPEG-LA ikke laver Unisys og begynder at kræve penge fra alle brugerne."

MPEG-LA kan ikke lave en unisys.... eftersom unisys sagsøgte brugerene af gif (som unisys ikke lavede selv). MPEG-LA lever af at sælge mpeg4 licenser og har patenterne til låns, det er ikke god sælger strategi at fremmedgøre alle ens kunder ved at sætte prisen på dit hovedprodukt så højt at du ikke kan sælge det...

Den gullerod til at holde sig til rimeligheder havde unisys ikke, da gif ikke var deres produkt. Kom med et eksempel hvor et firma pludseligt har sat prisen på deres patent beskyttede produkt urimeligt højt ifht markedes prisen ?

Desuden kan MPEG-LA maksimalt øge licens prisen med 10% per 5 års licens periode det er defineret i licens kontrakten...

Ja, de kunne godt lade være med at lade no pay per download licensen være gratis (reklamefinancierede og ideelle sites) men det ville være lidt som at sælge frisør tider til skallede...

Så at sammenligne MPEG-LA med unisys er et falsum, dels pga unisys viste at blowout strategien kan man ikke tjene penge på. Så enhver manager der foreslår en massiv prisøgning på mpeg4 vil blive mødt med ordene "Ja det ser godt ud på papiret, men husk hvor hurtigt gif døde efter unisys ville kradse 7000USD ind per site fra folk der ikke havde penge til at betale". Det virker væsentligt bedre at sælge noget til folk der faktisk har penge.

Desuden så er de omkostninger der er forbundet med en MPEG-LA licens ret begrænsede og selv om du laver hardware så skal du sælge mere end 100.000 enheder før du skal betale licens. Hvis en virksomhed ikke har råd til at betale 8 USD i licens per enhed for decoder algoritmen (en rimilig stor del af en blueray DVD afspiller, faktisk en af de helt centrale dele) så er det godt nok en dårligt drevet virksomhed.

Hvis du encoder video i h.264 på bluray skiver, som du sælger så er det 0.02 USD per skive ? totalt vilde priser som måske vil stige med 10% i 2016...

eg. moot point

Brødnid... fra ogg theora udviklerene i artiklen med navnet "WE WELCOME OUR NEW WebM OVERLORDS" ? vi lader billedet stå.

Løsningen... Hvis man nu indstalere software på serversiden der automatisk finder ud af hvilken encoding som klienten virker bedst med. Så vil alle kunne se video og hvis klient platformen har en type hardware acceleration vil den spørge om video i det format.

Hvis den interaktion mellem server og klient blev en del af tagget så ville alle kunne se video uanset hvilke klient platform de foretrak....

Problemet kommer når man skal ha DRM på skidtet... så bliver det straks mere mudret.

Personligt synes jeg bare vp8 ser ud til at være det samme blur helvede som man er blevet vant med fra On2 side (gamle flash med VP6 skype osv) og det gider jeg ikke se presenteret som løsningen på alle vores problemer med et trylleslag.

og jeg kan ikke se hvorfor man sætter en usansyneligt fremtidssenarie der inkludere at MPEG-LA vil begå standard selvmord, op mod bare at vælge den bedste videokompresions standard.

Hvis WebM viser sig at kunne blive bedre end h.264, så er det klart det bedste format der skal bruges.

Men tror ikke på det, so far hvis nu de kunne vise noget faktisk bevis for deres påstande om at vp8 er overlegen fx et komprimeret billede der ser væsentligt bedre ud end h.264 encodere kan lave det ?

Alt jeg ser når man ser på de doom10 links af vp8 ovenfor er blur blur og blur. Nej h.264 er ikke perfekt men detaljeret billede med nogle artefakter mener jeg visuelt er bedre (NB! personlig holdning). Men hvis h.264 sammenlignes med vp8 idag så er jeg ikke overbevist af de flotte ord google beskriver deres encoder med.

Men det kan være horible encoder instillinger, men det ville være nemt at afvise ved at offentliggøre beviser for at vp8 faktisk kan encode uden at udviske detaljerne...

Samtidigt synes jeg det er mystisk at Google (company of the eternal beta versions) låser fil formatet før det har været til offentligt skue, uden at vise overbevisende dokumentation for at deres nye format faktisk levere en bedre encoding end de eksisterende encodere ?

Pics or it dont exist

/Jakob

  • 0
  • 0
#25 Lasse Reinholt

Om h.264 går helt væk eller ej er ikke helt så vigtigt som at VP8 bliver det troværdige alternativ der gør at MPEG-LA ikke laver Unisys og begynder at kræve penge fra alle brugerne

Nu er der den show stopper, at VP8 har meget ringe billedkvalitet i forhold til h.264, når man søger efter eksempler på sammenligninger:

http://www.google.dk/images?rlz=1C1GGLS_daDK348DK348&q=comparison%20vp8%...

  • 0
  • 0
#26 Deleted User

Det er meget fint at h.264 kan lave fin video hvis man betaler i dyre domme, men det er ALDRIG den forkromede-lukkede-dyre løsning der vinder i kampen med den ok-åbne-gratis.

Hvis man døjer med at huske hvordan det virker så bare tænk tilbage på hvordan det gik med MCA bussen og OS2.

Alle spillerne der tæller er med på WebM vognen, så Apple har valget imellem: * At tvinge deres brugere til Flash * Implementere WebM * Overbevise brugerne om at de kun har brug for video fra Apple.

  • 0
  • 0
#27 Jakob Damkjær

MPEG-LA er ikke dyr. Ja, firefox skulle af med en pæn sum for at ha en licens fordi det sender milioner af kopier af deres produkt på markedet.

Men det har så en tilsvarenden indtjening fra deres søge funktion som google betaler dem et tilsvarendende stort beløb for.

Men at en Bluray afspiller skal betale 8USD per maskine de sælger til MPEG-LA er ikke dyrt.

og hvad er alternativet til MPEG-LA ? at du skal ud og ha en aftale med samtlige virksomheder der har patenter der vedrører video komprimering ?

Held og lykke med det...

Apple behøver ikke at gøre noget, så længe der kun er en isostandard til video komprimering, vil der være mange firmaer og organisationer der ikke vil være afhængig af format der ikke ser ud som et spec man kan regne med et forudsigeligt output fra.

Lad os se hardware decoder implementeringer af messy spec vp8 og hvor let det er at implementere det i hardware før jublen breder sig over googles nye vidunder teknologi...

Samtidigt taler de sidste års virkelighed din "ok-åbne-gratis vinder" teori midt imod. Jeg siger Ogg Theora... du siger ?

Mpeg4 er i alle de nye digital bokse i det nye danske TV signal, det er i bluray afspillere, det er i iTunes storen, det er på youtube, det er i flash det er i daylimotion, det er i vimeo. det er i HD video optagere, det er i hardware encoding dongles, det er i alt muligt pro og forbruger software... kort sagt der er overalt hvor der er video i en rimelig kvalitet der skal decodes eller encodes. Så mpeg4 går ikke væk.

Men hvis vp8 levere mere end blur blur blur og encoders der kun virker ud fra google kodebasen, med indbygget patent helvede fordi hvis du ikke definere noget specifikt så er der rigtig meget der kan ligne det i et juridisk perspektiv og så kommer vp8 ikke til at gå nogen steder andet end youtube og wikipedia.

Hvis det derimod viser sig at den faktisk ikke er en patentfælde for dem der laver hardwaren (som android OS viste sig at være for HTC) eller har dybe lommer at sagsøge og det faktisk kan komme til at lave rimelig kvalitets video som kan hardware accelereres, så det bliver konkurancedygtigt med h.264... så er der absolut ingen årsag til at det ikke skal accepteres bredt som en løsning der virker.

Men at starte med en kodebase som selv Ogg Theora udviklere uden sværdslag acceptere som forvirende, rodet og obskur. Hvor der ikke kan ændres i bitstream formatet så er det godt nok en underlig start på næste generation af internettets video format.

Så ingen mulighed for at rette fejl, man har valget at acceptere videoformatet af guds (undskuld Googles) nåde og så prøve at fikse det med encoder optimeringer (vel at mærke på en kodebase der er blevet optimeret på i mindst 6 år) få det til at virke bedre end det gør nu....

Det som Google burde ha presenteret var et klart software roadmap til den endelige standard. Så udviklere kunne melde sig under fanerne og arbejde mod et patentfrit for der kunne iso certificeres. Når bitstream formatet var klart til at implementeres i hardware, så skulle man låse det ikke før.

Men alt det har google ikke tid til for med et låst bitstream format kan hardware implementeringen startes idag. uanset om den så er et rod uden lige.

Harmonikasammenstød på internetsupermotorvejen forudser jeg mm google træder et par trin tilbage og acceptere at man ikke bare lige kan fiske et video codec, der kan implementeres som en global standard op af lommen og fikse alting in the mix. Så nej Google er ikke magiske, hvis vp8 var så fantastisk som det er slået op til at være hvorfor findes det så ikke implementeret i hardware endnu ? ikke engang hantro, der har lavet vp6 hardware accelerations chips har en hardware implementereing klar nu ?

Samtidigt kan jeg ikke se hvordan google kan love at der ingen patent fælder er i vp8... hvad gemmer sig i de obskure blokke af kode ? specielt når dele af vp8 der er stort set carbon copy af h.264 i en del der er beskyttet af licenser når de ikke engang har givet metoderne nye navne... det er sikkert noget som det gratis internet ikke har nogen problemer med... men virksomhedders juridiske afdelinger vil løbe skrigende væk fra (se ovenstående citat).

/Jakob

PS! samtidigt... det komme aligevel til at være i flash video det hele for at kunne komme ud på IE og Safari. Så når man aligevel vælger flash så er der absolut ingen grund til at man vælger andet end den bedste kvalitet. dvs. h.264 welcome to teh suck.

  • 0
  • 0
#28 Deleted User

Uvandt nok har MS fået røven med sig, så IE9 kommer med VP8, mao. kan man om kort tid trygt ignorere browsere der ikke understøtter WebM og nøjes med en simpel Flash fallback til folk der har mere lyst til ekstra opvarmning fra CPU'en end til at opgradere til en tidssvarende browser.

Google kan love at der ikke er ubåds-patenter i VP8 på nøjagtigt samme måde som MPEG-LA kan love at der ikke er ubåds-patenter mod h.264, så stop det FUD, du har ikke noget at have det i.

At påstå at VP8 på nogen måde er en ulovlig kopi af h.264 afslører at du intet ved om hverken VP8 eller h.264, for at være fair gider jeg heller ikke at læse koden, men hvis der var noget at komme efter havde MPEG-LA (som har flere patenter og advokater end jeg har spist ærter) nok knust On2 for meget længe siden, tror du ikke?

Du har måske ret i at VP8 ikke er h.264 teknisk overlegen, men det behøver det heller ikke at være, bare VP8 er godt nok, så skal det nok vinde.

Hvis du nogen sinde set en video på Youtube, hørt en mp3 eller en CD produceret inden for de sidste 5 år for den sags skyld, så kan du da ikke seriøst tro at en marginal kvalitetsforskel vil forandre noget som helst på hvilken CODEC der vinder det her løb.

Kode kvalitet og kvaliteten af spec'en er nøjagtigt lige så værdiløse argumenter, så længe resultatet er godt nok og koden er uden begrænsninger er alt andet ligegyldigt.

Det er da helt i orden for folk at bruge h.264, hvis de har brug for de ekstra fine ting som h.264 kan (f.eks. hardware support i dag og meget fin kvalitet ved høj båndbredde), men der er absolut ingen grund til at alle andre (ca. samtlige Youtube brugere) skal bebyrdes med h.264.

Jeg fatter simpelthen ikke hvordan andre end MPEG-LA kan have noget imod at WebM bliver udbredt for , hvad er din motivation?

  • 0
  • 0
#29 Jakob Damkjær

IE9 får ikke native support af VP8, det skal instaleres seperat (dvs flash eller googles directshow plugin)

Ta og læs lidt på http://x264dev.multimedia.cx/?p=377

det er godt skrevet og bare fordi din kode er anderledes betyder det ikke at du ikke bryder patenter.

Men det der springer i øjnene er denne paragraf:

Honestly, I’m very disappointed here. While H.264’s intra prediction is good, it has certainly been improved on quite a bit over the past 7 years, and I thought that blatantly ripping it off was the domain of companies like Real (see RV40). I expected at least something slightly more creative out of On2. But more important than any of that: this is a patent time-bomb waiting to happen. H.264’s spatial intra prediction is covered in patents and I don’t think that On2 will be able to just get away with changing the rounding in the prediction modes.

Det bør google finde et godt svar på hvorfor de stort set har skrevet af efter h.264 på et området der er dækket af patenter.

Ja jeg har set video på youtube og det har altid været så elendigt at man knapt kunne se noget, nej MP3 var jeg aldrig en fan af det var selv i høretelefoner en flad lyd der ødelage musiken. Det er blevet bedre med nyere versioner af encoderene men jeg foretrækker lossless når det er praktisk.

Grunden til at de dårlige codecs har været mere succesrige har været at der ikke var realistiske alternativer der var bedre og de båndbredte begrænsninger der har været ikke har kunne trække kvalitets video.

Nu har vi et codec der faktisk kan levere hd over rimelige bredbånds forbindelser og med marginale forskelle mener du ret store grimme blur blobs der dræber detaljerne i billederne...

Med SD fjernsyn har det været begrænset hvor meget af den faktiske forskel mellem god og dårlig encoding var synlig. Men med alle de fine HD skærme og fjernsyn er det noget man faktisk vil kunne se forskel på..

Submarine patenter er noget andet end det som vil ramme vp8. Submarine patenter er patenter der administrativt holdes i limbo, så de ikke bliver gældende før der er nogen der bruger teknologien. VP8 vil bare stride mod eksisterende gældende patenter som beskriver video komprimerings teknologi. Meget stor forskel og google har ikke den bedste track record når det kommer til at garantere at noget ikke er sårbart overfor patent retssager...

Der er ingen der har noget mod at WebM er udbredt (40% af video på nettet er allerede igang med at blive transcoded til det på youtube, så at hævde at det ikke bliver udbredt er allerede for sent), så længe at de websites jeg frekventere lever indholdet i en god kvalitet om de så gør det med et codec som levere kvalitet med WebM eller h.264 er lidt ligegyldig.

Det jeg har noget imod er at noget der virker som noget klytkodet software med et uklart udefineret spec bliver presenteret som den næste generation af video software, hvor det i realiteten bare er 5 år gammel teknologi der laver alting om til blur fordi det ser godt ud på SSIN statestiken, men i virkeligheden fjerner den metode alle detaljer fra billedet så det ser elendigt ud.

Det har jeg noget imod, lav ting bedre ikke dårligere og hvordan bebyrdes den almindelige bruger af h.264 ? helt precist.

nåå jo slet ikke og hvis du siger at patent sårbarheden (som er en real risico for virksomheder, hvis du mener det ikke er tilfældet så tror jeg HTC har et job til dig) er FUD så er open source lejerens MPEG-LA = Unisys mantra lige så meget FUD.

Hvis vi fjerner de to argumenter så er vi tilbage til videokvaliteten og så kan vi meget hurtigt blive enige om at der ikke rigtigt er særligt meget grund til at vælge det som ser dårligere ud og som der ikke er hardware acceleration af i virkeligheden endnu.

/Jakob

PS! fordi kartago skal lægges øde så kan vi jo vende tilbage til det hykleri som firefox har gang i med deres benægtelse af h.264 pga det er patenteret mens det samtidigt acceptere flash® der er er lukket proprietær standard og h.264 player software...

  • 0
  • 0
#30 Jesper Lund

PS! fordi kartago skal lægges øde så kan vi jo vende tilbage til det hykleri som firefox har gang i med deres benægtelse af h.264 pga det er patenteret mens det samtidigt acceptere flash® der er er lukket proprietær standard og h.264 player software...

Det er ikke hykleri, men banale økonomiske realiteter i en ulykkelig verden med softwarepatenter.

Hvis Mozilla inkluderer H264 i Firefox, kunne de risikere at modtage et brev fra MPEG LA's advokater med krav om betaling for de (software)patenter som benyttes. Mozilla distribuerer som bekendt binaries til hele verden.

En del andre frie software projekter i patentrisikozonen (LAME og vist også x264) distribuerer ikke binaries, men overlader compilering til brugeren (private kan ikke krænke patenter) eller anonyme hit-and-run download sites eller anonyme Linux repositories, hvor der ikke er nogen at sagsøge (og MPEG LA er også så "large" at man kan distribuere et vist antal decodere før der skal betales).

Mozilla krænker selvfølgelig ikke nogle patenter fordi der er mulighed for at installere et plugin med H264. Derimod betaler Adobe givetvis til MPEG LA for H264 understøttelsen i Flash player'en. Jeg ved ikke hvor de får pengene fra, for download af Adobe Flash Player gratis (ligesom download af Firefox), men Adobe har sikkert en anden forretningsmodel end Mozilla. Jeg er ikke bekymret for Adobe.

Hvis M$ og Apple (eller andre fra MPEG LA patent pool) får held med at håndhæve patenter overfor VP8, vil Mozilla få et problem, og så vil vi sikkert se VP8 support forsvinde fra Firefox igen.

Den royalty-frie brug af Google's patenter på VP8 er vist betinget af at man ikke sagsøger Google (og måske andre?) for patentbrud i forbindelse med VP8. Det er utvivlsomt derfor at M$ vælger ikke selv at implementere VP8 i IE9, men blot giver mulighed for at bruge et DirectShow VP8 codec hvis et sådant findes (og det gør det allerede, da Windows var den første platform til at få VP8 understøttelse).

På den måde bevarer M$ (og sikkert også Apple) muligheden for at sagsøge Google eller andre firmaer som bruger VP8 for patentbrud (de vælger nok ikke Google, men et firma med mindre advokatbudgetter..). Eller de kan bruge den samme patent FUD, som Steve Balmer har kørt med overfor Linux i årevis.

IANAL, og jeg har ingen anelse om hvorvidt VP8 kan holde sig fri af MPEG LA's patenter, men jeg håber det. Fri udveksling af information blandt frie mennesker skal ske med et frit video codec. Og her hedder kandidaterne Ogg Theora og VP8, ikke H264 som landet ligger (medmindre MPEG LA vælger at gøre H264 royalty-frit på internettet, men de gør de nok ikke... desværre).

  • 0
  • 0
#31 Deleted User

h.264 kan ikke bruges som en grundlæggende CODEC for fordi det er 100% inficeret af patenter, det er jo netop det MPEG-LA lever af, dermed har h.264 tabt allerede.

VP8 kan måske (lige så måske som h.264) blive offer for et eller andet hemmeligt patent et sted, men det er ikke mere sandsynligt end at h.264 eller mit hello world bliver det.

Al historie har vist at forbrugere ingen ide har om hvad kvalitet i lyd og billede er og at det absolut ikke er vigtigt for noget som helst.

Om du kan lide VP8s indenterings regler eller deres måde at skrive en spec på er ikke vigtigt, med mindre du er ansat til at vedligeholde VP8.

Hvis man gerne vil låses fast i restriktioner og patenthelvede skal man da bare bruge h.264, os andre, mindre videophile, der godt kan nøjes med WebM kan spare det bøvl.

Alt det snak om software patenter i den her sag viser jo blot at software patenter kun kan blive afskaffet for langsomt, det er jo ganske tydeligt at patenter i det her tilfælde hæmmer den frie konkurrence og giver kunderne dårligere produkter.

  • 0
  • 0
#32 Anton Lauridsen

Brødnid... fra ogg theora udviklerene i artiklen med navnet "WE WELCOME OUR NEW WebM OVERLORDS" ? vi lader billedet stå.

Nu var det egentlig "Diary Of An x264 Developer" jeg tænkte på da jeg talte om muligt brødnid, men ok, jeg har sikkert ikke udtrykt mig tydeligt nok.

Jeg hverken kan eller vil udtale mig om kvaliteten af WebM, det ved jeg for lidt om teknologien til at kunne udtale mig om. Jeg er dog ikke villig til at tage "Diary Of An x264 Developer" bloggen som "bevis" for WebM's mangler.

fordi kartago skal lægges øde så kan vi jo vende tilbage til det hykleri som firefox har gang i med deres benægtelse af h.264 pga det er patenteret mens det samtidigt acceptere flash® der er er lukket proprietær standard og h.264 player software...

Det er faktisk ikke hykleri, licensen til Firefox er OSI kompatibel, alle ret til frit at videredistribuere softwaren, men hvis kodebasen indeholder en komponent som H.264 der vides at være beskyttet af patenter, så kan den ikke længere frit videre distribueres.

private kan ikke krænke patenter

Det kommer an på hvilket land du befinder dig i, iflg. den Europæiske patent konvention kan private ikke krænke et patent hvis patentet benyttes privat og ikke kommercielt. Desværre er det en teoretisk mulighed for private at krænke et patent i USA.

Nu er det jo let at bruge skjulte patenter (submarine) som argument for at der er patent problemer med WebM, det argument kan bruges mod alle teknologier der er mindre den er mere end 20 år gammel. For h.264 vides det med sikkerhed at der er patent problemer, for WebM er der tvivl (tvivl=Doubt, fuD). Hvis WebM bliver accepteret er det næsten helt sikkeret at der vil komme endnu en stribe af retsager i vest Texas, men om de kan vindes er usikkert (usikkert=Uncertainty, fUd). Frygten (frygt=Fear, Fud) for en patentsag kan derfor være berettiget uanset valget af codec.

HTML og HTTP er meget grundliggende komponenter for brugen af internettet, jeg har meget svært ved at se at patenteret teknologi - hvor rettighederne ikke gøres frie - vil blive en del af internettets kerne.

En løsning for codec problemerne med video tagget bliver nødt til at bevæge sig i et spændingsfelt mellem teknisk gode løsninger og politisk mulige løsninger. At insistere på at det skal være h.264 eller intet, vil sansynligvis betyde at man vælger "intet". Husk: "Perfect is the enemy of the good".

Hvis W3C vælger at benytte WebM som codec har jeg meget svært ved at se at Microsoft skulle "nøjes" med en WebM plugin the IE9. Microsoft basherne ville jo så kunne sige at IE9 ikke understøtter HTML5 (Her antager jeg at IE9 kommer efter at HTML5 er final)

  • 0
  • 0
#33 Jørgen Ramskov

Citat Jakob Damkjær: "Cherry picking er ikke pænt"

Du gør det selv lidt senere med:

=== CITAT === Brødnid... fra ogg theora udviklerene i artiklen med navnet "WE WELCOME OUR NEW WebM OVERLORDS" ? vi lader billedet stå. === CITAT ===

Jeg citerer første afsnit: "The title is mostly due to having seen three or four other blog posts simultaneously making this joke. It had popped into my mind too :-)"

Og det er jo i det hele taget en gammel joke taget fra et spil...

Jeg ved som de fleste andre meget lidt om video codecs osv., men når en x.264 udvikler kritiserer et andet format, så tager jeg det med et gran salt. På samme måde som jeg også tager det med et gran salt hvad Monty/Xiphmont skriver om Theora og WebM. Det skal dog siges at jeg flere gange har læst Monty besvare kritik, senest af .Ogg containeren hvor han besvarede den FUD med facts :) Jeg har en god fornemmelse af at Monty ved hvad han snakker om, modsat kender jeg ikke x.264 udvikleren.

Mht. prisen, så er 1kr dyrt når alternativet koster 0kr, især hvis du sælger mange millioner afspillere.

  • 0
  • 0
#35 Jakob Damkjær

"Citat Jakob Damkjær: "Cherry picking er ikke pænt"

Du gør det selv lidt senere med: " nej faktisk ikke jeg referere hele resten af blogposten så forklar venligst hvordan det er chery picking.

Hvis du så læste hele tråden, så var det fordi jeg citerede resten af det citat der tidligere kun blev cherry picket at jeg referere til titlen. Det gjorde jeg for at implisere at selv vp8/WebM positive udviklere (som ogg udviklere må siges at være effersom deres audio codec er blevet valgt til det) indrømmer at vp8 er noget rod.

Det spørgsmål som blev stillet til ogg udvikleren "om vp8 var et rip af h.264 ?" var en fejl representation af det x264 udvikleren skrev og hvis du så mit citat af hvad han faktisk skrev. Så har han argumenter til at skrive at de vist havde haft gang i kopimaskinen ang en del af vp8...

kom gerne med saglige modargumenter istedet for at komme med løse personlige anekdoter om hvad du mener om den ene eller den anden udvikler.

Se på teksten og argumenterne, de er ikke specielt sure rønnebær.

Men et af de store spørgsmål er, at når det faktisk bliver listet ud af klytkoden hvad det er den gør er prisen så stadig nul ?

Og om alle virkelig har lyst til at hoppe ombord i en omgang rod der ikke engang er specificeret klart og med obskure sorte bokse blandet ind i suppen (jup alt muligt møg kan gemme sig i de uanoterede uforklarede C kode blobs... typos almindelige fejl og patent overskridelser).

Men måske er der intet der, men hvis nu der blev rydet op i rodet inden man udbredte standarden så vi ikke ender med 123123 forskellige implementationer der fortolker et bitstream format lidt keglet på hver sin måde så ville jeg faktisk kunne overveje det som en teknoligi der var værd at bruge tid på.

Det er et mindre problem med software at få den slags rydet op i men fordi det skal på mobilerne så skal det hardware accelereres og så bliver et uklart spec noget rod, men hey så kan HTC sælge nogle flere mobiler.

Det er faktisk det som pisser mig mest af at det bliver presenteret som et modent klart specificeret codec men bare ikke er det og manglen på psy optimering er bare ikke godt nok i denne HD alder. Samtidigt med at Google ikke acceptere at de har en masse arbejde der skal gøres for at det kan blive en standard. Tror ikke engang de har en intention om at gøre det til andet end et stykke software.

Jeg kunne enda bringes til at vudere det som en tidlig beta og så ville det være ok at det var dårligt.

Problemet er at det ikke er en beta, det er moden kode (Som et profesionelt udviklerhold der har koded på i 6 år) og så er det bare ikke ok at der ikke er psy optimering eller en rdy for primetime encoder samt en seperat implementeret decoder ud fra et klart defineret spec.

Samtidigt er det at filformatet frosset for et format der ikke er færdigt, er bare det endelige søm i kisten for mig.

Mange ting er mpeg og h.264 (anticrist osv) men det er klart specificeret og det er implementeret et utal af gange ud fra specifikationen. Det er profesionelt.

Men enjoy din video med blur blobs og en hardware acceleration der næsten fortolker standarden, som det var meningen.

Lad os se hvor godt det bliver i længden, men imo synes jeg ikke det lyder som om det er en encoder/decoder software (for det er ikke en standard) der er kommet afsted til en god start. Mere et halvdødt projekt der humper ind på scenen og forventer applaus.

Prøv et tanke eksperiment... Lad som om at det var microsoft der havde presenteret WebM... De var blevet buet ud af auditoriet.

Jamen det er jo et fantastisk encoder decoder... hvorfor er der så ingen visuel dokumentation af dets fortræffeligheder på dets nye hjemmeside ?

Video software der ikke tør vise stills hvor det viser hvor godt der er sammenlignet med andre encodere ? er det for meget at spørge om ?

Wow de er virkeligt sikre på at deres software er amazing... ja der er andre der viser billeder men hvis WebM viste noget på deres hjemmeside så kunne de ikke sige at den dårlige kvalitet bare var bevidst dårlige encoding instilinger... (selv om vp8 jo ifølge google selv ikke være spor svær at indstille så man får gode billeder).

http://doom10.org/compare/vp8.png http://doom10.org/compare/x264.png

Den forskel kan jeg godt forstå at google ikke vil sætte front and center på deres hjemmeside.

Vi lader billedet af fremtidens video stå...

/Jakob

  • 0
  • 0
#37 Jørgen Ramskov

Okay, men det ændrer ikke ved det fact at du bruger citatet på en måde som det absolut ikke var tiltænkt af Monty.

Jeg skal ikke kommentere på kvaliteten af WebM og det tror jeg ikke der er mange der kan gøre da det kræver tid at sætte sig ind i. De har lige åbnet det og jeg tvivler på at nogen kan lave en ordentlig analyse på så kort tid.

Derudover vil det helt sikkert være muligt at forbedre kvaliteten af WebM uden at ændre specificationen på samme måde som det er gjort med andre codecs.

  • 0
  • 0
Log ind eller Opret konto for at kommentere