Video på en computer er repræsenteret ved hjælp af en kombination af
billeder og lyd , som både er gemt og forarbejdet digitalt. Her er en sammenbrud:
1. Billeder:
* rammer: Video er i det væsentlige en række af stillbilleder kaldet rammer, der vises i hurtig rækkefølge for at skabe illusionen om bevægelse.
* pixels: Hver ramme består af et gitter af små firkanter kaldet pixels (kort til "billedelementer").
* Farve: Hver pixel indeholder oplysninger om dens farve, typisk ved hjælp af en farvemodel som RGB (rød, grøn, blå) eller YUV (luminans, krominans).
* opløsning: Antallet af pixels i en ramme bestemmer dens opløsning med højere opløsning, hvilket betyder mere detaljeret.
* Komprimering: For at reducere filstørrelse komprimeres videodata ofte ved hjælp af algoritmer som H.264, MPEG-4 eller VP9. Disse algoritmer fjerner overflødig information, hvilket gør videoen mindre uden væsentligt at ofre kvalitet.
2. Lyd:
* lydprøveudtagning: Lyden, der er knyttet til en video, er også digitaliseret ved at prøve den med regelmæssige intervaller. Dette betyder at konvertere den kontinuerlige lydbølge til en række diskrete værdier, der repræsenterer amplituden (volumen) på forskellige tidspunkter.
* prøvehastighed: Antallet af prøver, der er taget pr. Sekund, bestemmer lydkvaliteten, med højere prøvepriser, der fanger flere detaljer.
* lydkomprimering: Ligesom video kan lyddata også komprimeres ved hjælp af algoritmer som MP3, AAC eller OPUS for at reducere filstørrelse.
samlet repræsentation:
* datastrukturer: En videofil gemmer typisk billed- og lyddata i specifikke formater (som AVI, MOV, MP4 osv.). Disse formater indeholder metadata om videoen, såsom billedhastighed, opløsning og lydkodningsinformation.
* Afspilning: Når du spiller en video, læser computeren dataene, dekomprimerer dem og sender dem til display- og lydudgangsenhederne for at genskabe billedet og lyden.
Eksempel:
Forestil dig en 10-sekunders video med en 30 rammer pr. Sekund (FPS) -procent og en opløsning på 1920x1080 pixels (1080p). Denne video vil indeholde 300 billeder (10 sekunder * 30 rammer/sekund), og hver ramme vil indeholde 2.073.600 pixels (1920 * 1080). Farveoplysningerne for hver pixel sammen med lydprøverne ville blive gemt og behandlet i et specifikt dataformat, hvilket skaber en komplet repræsentation af videoen.
Den nøjagtige måde videodata gemmes og behandles kan variere afhængigt af videoformatet og den software, der bruges til afspilning. Imidlertid forbliver kerneprincipperne for at repræsentere billeder og lyd som digitale data konsistente.