Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'encodage et le décodage de fichiers audio FLAC et Ogg seraient désormais plus rapides
Grâce à l'implémentation d'un nouvel algorithme CRC optimisé

Le , par Christian Olivier

63PARTAGES

8  0 
Il existe de nombreux formats audio adaptés à divers usages. Certains permettent notamment de diminuer la taille des fichiers. À l’intérieur de ce dernier groupe, on distingue les formats audio dits destructifs ou avec perte (lossy) qui ne permettent pas de recréer l’original à partir d’un fichier audio compressé et les formats audio non destructifs ou sans perte (lossless).

Les formats lossy comme Ogg permettent d’obtenir des fichiers audio de petite taille au détriment de la qualité. À l’inverse, les formats audio lossless comme FLAC (Free Lossless Audio Codec) sont utilisés lorsque la qualité d’un fichier audio prime sur l’espace de stockage qu’il est susceptible d’occuper.


Le format Ogg est un format de compression audio libre qui se veut une alternative au format Mp3 plus populaire. Le format de compression audio libre FLAC, quant à lui, permettrait généralement de réduire d’environ 50 % la taille des fichiers Wav. Ces deux formats audio sont soutenus par la fondation Xiph.Org dont le but est de proposer des formats et codecs multimédias ouverts, libres et dégagés de tout brevet.

FLAC et Ogg auraient désormais de meilleures capacités d’encodage et de décodage audio grâce aux améliorations récentes apportées au code qui sous-tend leur fonctionnement respectif. Ces deux formats utilisent désormais un algorithme CRC optimisé permettant d’accélérer les opérations d’encodage ou de décodage.

Les gains annoncés sont d’environ 5 % en encodage et décodage pour FLAC, contre 10 % en encodage et 15 % en décodage pour Ogg. Les formats audio Opus et Monkey audio seraient également concernés par cette mise à jour, mais les gains attendus seraient plus modestes : environ 1 % en encodage pour le format audio Opus et environ 4 % en décodage pour le format audio Monkey Audio. Soulignons au passage que le format Opus (Harmony à l’origine) est un format audio avec perte qui a été développé par l’Internet Engineering Task Force (IETF) afin d’être utilisé par des applications interactives sur Internet.


Et vous, êtes-vous plutôt lossless ou lossy pour vos chansons préférés ?

Source : Phoronix, Freac

Et vous ?

Qu’en pensez-vous ?
Quel format de fichier utilisez-vous pour stocker vos fichiers audio ? Pourquoi (quel serait leur particularité du point de vue de la qualité notamment) ?

Voir aussi

iOS 11 intègre nativement le codec audio libre FLAC par l'entremise du nouvel explorateur de fichiers baptisé Files
Firefox 51 va être en mesure de lire nativement les fichiers FLAC avec le support prévu du codec audio dans la prochaine version du navigateur
Manipuler les tags des fichiers Ogg et FLAC

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de archqt
Membre confirmé https://www.developpez.com
Le 26/05/2018 à 15:12
Non 44.1khz correspond à la fréquence d'échantillonnage (donc jusque du son à 22.05khz), 22.05 khz cela ne correspond pas à du mono sinon cela voudrait dire que le mono se limite à 11khz environ, trop faible je pense.
Après que la taille des échantillons baisse OK mais sinon le principe de Shannon en traitement du signal n'est pas respecté.
A mon avis on encode le signal "commun" d'un côté et le signal de la différence des 2 canaux de l'autre côté en stéréo. Comme la différence est "faible" en général cela permet de gagner sur la taille des échantillons.
Surtout que je pense que l'on ne stocke que la différence entre échantillons pour gagner de la place.
1  0 
Avatar de Steinvikel
Membre expérimenté https://www.developpez.com
Le 29/05/2018 à 17:22
Citation Envoyé par MikeRowSoft Voir le message
(...) Si il pose son outil de prise de sons "Zoom H5" en plein milieu de la salle le son n'est pas terrible. Si il met un micro " sur " chaque source (instrument) le son enregistré est " mixable " et de bien meilleur qualité (...) Le patron est très sympa et il connait très bien les problématiques (prise de sons et sonorisations) (...)
Comme tu le dis, il n'est plus vraiment question, ici, de qualité du son (dans le sens "encodage", mais de prise de son. L'exemple que tu prend est typique de l'enregistrement d'une batterie.

Citation Envoyé par MikeRowSoft Voir le message
Je sais pas trop quel pourrait être la différence entre un son et un bruit, le bruit étant plusieurs sons je présume.
J'entendais par "bruit" tout ce qui est sons d’ambiance : les brouha de la foule, les sifflement du vent, un moteur qui rugit...

Citation Envoyé par MikeRowSoft Voir le message
Les logiciels d'éditions ont plusieurs " pistes " (sources) qui au final peut restituer un plusieurs canaux en fonction du mixage je pense.
Dans ce domaine on peut considérer que le logiciel d'édition n'a pas de limite sur le nombre de piste. Il faut garder en tête que la chaine du son est assez longue, sa va du micro qui enregistre, jusqu'au haut-parleur qui le restituera, en passant par le logiciel qui l'interprète... cette chaine n'est pas fixe, il y a souvent des outils qui sont rajoutés (interfaces audio-numériques) qui permet de pré-traiter un groupe de pistes avant de les envoyer en entrée pour les enregistrer (enregistrer sur une piste séparé permet de mixer séparément). Le mixage, c'est la suite de la production, tu as l’arrangeur qui va orienter le rendu d'une prise de son, la prise de son, le mixage, et plus loin, le mastering, chaque étape peut altérer le son, l'encodage/décodage, n'est qu'une étape parmi d'autre, et dans cette étape, la fréquence et la résolution sont déterminante.

PS: la qualité est également relative à l'oreille qui l'écoute. x)

Citation Envoyé par MikeRowSoft Voir le message
Une série de bruits anodin peuvent surement servir à reproduire un son familier pour " l'humain ".
Il y a des gens qui font de la musique à partir de "bruits" naturels. Et dans les films, les spectacles, les saga mp3, les jeux... il faut des "bruits" de qualité. =)

Citation Envoyé par MikeRowSoft Voir le message
Question jeux vidéo et immersion c'est les développeurs qui restitue l'illusion de la 3D. Il y a beaucoup de librairie et un peu moins de technologies. EAX est l'une d'entre elle. C-MEDIA propose un truc aussi nativement dans ses applications drivers. Mais seul Creative à encore une forme d'accélération HW.
restituer une spatialisation contribue à l'immersion, la qualité du son qui est spatialisé aussi.
PS, je joue encore à Oddworld : Abe exodus (jeu PS1) sur mon installation hi-fi ^^'... que du bonheur surtout pour retranscrire l'ambiance inquiétante... rien à voir avec les haut-parleurs de ma TV.

Citation Envoyé par MikeRowSoft Voir le message
Pour écouté de la musique, avec Creative, CMSS 3D et Crystaliez (...) 4.1, 5.1, 7.1 (...)
C'est une problématique de traitement, à ma connaissance, l'encodage et le nombre de pistes/cannaux n'est pas dépendant.

Citation Envoyé par MikeRowSoft Voir le message
C'est trop bon quand on écoute des morceaux qui " tiennent à coeur ", et quand on ne l'a plus on se dit souvent que c'était mieux avant...
un sentiment que tout le monde partage, j'en suis sûr ! ^^
1  0 
Avatar de Steinvikel
Membre expérimenté https://www.developpez.com
Le 26/05/2018 à 10:08
@MikeRowSoft
Je crois que tu parles de la compression à débit variable (VBR).

Et vous, êtes-vous plutôt lossless ou lossy pour vos chansons préférés ?
Je serais plutôt losseless, mais quand je pense aux différentes étapes de production/diffusion d'un morceau de musique :
- le mastering, une étape de finalisation consistant à "dégrader" la qualité pour que le rendu paraisse plus "noble" sur des équipements non haut-de-gamme.
- lorsqu'il est mis sur CD, il l'est sous un format de compression avec perte, et il me semble que lorsqu'on achète la version dématérialisé, rare sont les plateformes à proposer le choix de l'encodage.
PS: modifier l'extension ou ré-encoder du mp3 (ou autre lossy) en FLAC, c'est de la poudre aux yeux, j'espère que la vente dématérialisé ne s'y adonne pas.

Quel format de fichier utilisez-vous pour stocker vos fichiers audio ? Pourquoi (quel serait leur particularité du point de vue de la qualité notamment) ?
Pour les raisons énoncés plus haut, je reste majoritairement en mp3, mais tend de plus en plus vers les formats de fichiers libres, qui "bizarrement" sont nettement moins limité en terme d'intégration (compatibilité, royalties, litige de licence, documentation, etc.), en terme d'évolutivité (bienvenu dans le monde communautaire). Et puis philosophiquement parlant, les format libres sont bien plus éthiques.
Pour rappel, bien que les brevets mp3 aient touché à leur fin en avril 2017, cela ne concerne qu'une version de mp3 : la version la moins efficace. La version "pro" étant elle, toujours couvert par le brevet (Thomson), tandis que la version classique fait de plus en plus pâle figure face aux autres alternatives, spécialement sur faible débit (64 kbit/s par canal ou moins). AAC (concurrent au WAV) devrait lui aussi se libérer en 2022.

Mais est-ce que OGG est plus efficace que ce bon vieux mp3 (classic) ? ou FLAC sur le AAC ?

NB : pour ceux qui seraient étranger à la problématique du codec, conteneur, qualité, débit/échantillonage... je vous invite à cette présentation succinte (ici)
0  0 
Avatar de Steinvikel
Membre expérimenté https://www.developpez.com
Le 26/05/2018 à 17:49
Comme je le disais précédemment, il y a une dégradation magistrale du son entre le moment où il est enregistré en studio (ou produit via un logiciel), et le moment où il est gravé sur la galette.
Un studio digne de ce nom permet d'enregistrer un canal par instrument (avec plusieurs micro ou non).
Le principe de Shannon indique simplement que pour retranscrire un signal oscillant avec plus ou moins de fidélité, il faut au moins l’échantillonner avec le double de la fréquence de cette oscillation. plus la fréquence d'échantillonnage est élevé, plus l'acquisition est fidèle à la réalité (voyez le son pourri que les téléphones peuvent émettre...).

<supposition> Je mettrait ma main à couper que la manière de compresser les canaux de manière différentielle ou non, s'appuie sur une analyse sommaire de leur similarité ou de la "balance", puis produit un ou plusieurs gros pâté commun. Un peu à l'image d'une sauvegarde incrémentielle, ou d'un dictionnaire de compression.</supposition>
PS: je suppose que l'algorithme de compression est polyvalent, et ne s'appuie pas sur le postula que les canaux d'un morceau sont similaire (stéréo, pourquoi pas... 7.1, sûrement pas).
0  0 
Avatar de Steinvikel
Membre expérimenté https://www.developpez.com
Le 26/05/2018 à 22:11
Effectivement on peut avoir un son correct, mais la qualité se fait sentir, d'autant plus sur un équipement haut de gamme.
8 kHz suffisent pour retranscrire une voix sur un dictaphone, mais bonjour la qualité. En revanche les dictaphones style "Zoom H1", qui encode en 16/24 bit de 44k à 96kHz, permettent d'enregistrer plus que de la voix, avec une très bonne fidélité >> la guitare, les voix, le bruit... chaque qualité supplémentaire sur la "captation" du son permet de retranscrire une composante du réel : le spectre sonore est certes une somme de fréquences, et d'amplitudes... mais chacun de ces "méli-mélo" spectraux ont leur désignations propres >> les plausives, l'attaque, la coloration, la cristallinité, l'intelligibilité, etc.

Avec 8kHz /8bit, on a certes un son reconnaissable, mais son usage est très vite limité. Pour retranscrire un concert par exemple, et capter les "bruits" de la foules, et ceux de la scène, il faudra non seulement des fréquences d'échantillonnage supérieurs et une résolution en bit plus élevé, mais également une prise de son différente via des micros spécifiques.

La radio FM est sur une seule porteuse, mais la donnée qu'elle "porte" contient de la musique sur plusieurs canaux (peut-être seulement 2... peut-être plus en radio numérique).
Le son est clair quand on capte bien, mais la restitution sur des hauts-parleurs de voiture, dans un habitacle, n'est pas vraiment comparable à une installation hi-fi, dans un salon... si ce n'est pour dire que c'est le jour et la nuit. ^^'
0  0 
Avatar de foetus
Expert éminent https://www.developpez.com
Le 26/05/2018 à 22:56
Citation Envoyé par Steinvikel Voir le message
Avec 8kHz /8bit, on a certes un son reconnaissable, mais son usage est très vite limité.
C'est le téléphone Adaptive Multi Rate (<- lien wiki anglais)
0  0 
Avatar de
https://www.developpez.com
Le 26/05/2018 à 8:53
Et vous, êtes-vous plutôt lossless ou lossy pour vos chansons préférés ?
Quel format de fichier utilisez-vous pour stocker vos fichiers audio ? Pourquoi (quel serait leur particularité du point de vue de la qualité notamment) ?
  • lossy (moins de place sur le HDD ? ne me prenez pas pour un con. Un wav suivi de zip et voila que MS le lance dans le lecteur multimédia.)
  • J'en utilise pas, mais je me suis intéressé à tout ces formats. Au final, Ogg (Vorbis) est mon préféré à bien des égards techniques. (réencodage d'un fichier encodé en 48 khz en un fichier encoder en 16 khz pouvant être perçu par l'oreille humain comme le résultat d'un fichier encodé en 44,1 khz avec le décodeur compatible par exemple, je me souviens plus du terme technique, mais MP3 exploite aussi le même " truc ". Bien évident que si la source est déjà " faussé " que le reste le sera.)


Sinon, avec un tel bogue je me suis demandé pourquoi une seconde n'est pas une seconde dans iTunes. (commercial)
0  1 
Avatar de
https://www.developpez.com
Le 26/05/2018 à 13:10
Non, c'est la correlation.

44,1 khz c'est du stéréo. un signal mono c'est 22,05 khz il est donc pris le commun et avec deux autres def pour crée la stéréo. ou un canal droite ou gauche et il est rajouté que ce qui permet de reconstituer le canal manquant.

J'ai vue ça en 2004-2005, a cette époque c'est pas tout les décodeurs qui prenait cela en considération. Alors j'ai remarqué cela lors de mes expérimentations persos.

C'est sur le samplerate que cela influx. C'est un peu comme faire du " multiplexage " (avec un table de mixage) des deux pistes (stéréo) vers du mono et ensuite sortir de ce fichier mono un son stéréo correcte (avec des filtres hw ou sw de démultiplexage). 44,1 khz = 2 x 22,05 khz

Mais là c'est de la prise de son et les astronomes savent que ce n'est vraiment pas précis ou "volumineux en entrer de capteur"...
0  1 
Avatar de
https://www.developpez.com
Le 26/05/2018 à 17:20
Échantillonnage

tu as entendu parlé de la faille de sécurité avec des signaux qui ne sont pas audible pour l'humain ?

Un CD audio contient des données qui représentent un signal acoustique échantillonné à 44,1 kHz (c'est-à-dire qu'il enregistre la valeur de chacun des canaux à intervalles réguliers 44 100 fois par seconde).
Pourtant oui. Sauf si le CD à en fait 88,2 khz (2 x 44,1 khz) d'infos pour du stéréo. (deux canaux, qui plus est indépendant sur le contenu mais ayant la même synchro temporelle.)

Quand je parle de mono, c'est juste un canal. Ce canal mono peut être échantillonné à 192 khz si tu le veux. Oui, ça je veux bien l'admettre qu'il n'y ai qu'un seul point d'entrée et sans table de mixage.
Code : Sélectionner tout
1
2
// Et si tu m'affirme que le mono c'est 8 bits et pas 16 bits, alors je saurais sur quelle référence tu argumente.
0  1 
Avatar de
https://www.developpez.com
Le 26/05/2018 à 18:39
Citation Envoyé par Steinvikel  Voir le message
Un studio digne de ce nom permet d'enregistrer un canal par instrument (avec plusieurs micro ou non).


Oui.
Citation Envoyé par Steinvikel  Voir le message
Le principe de Shannon indique simplement que pour retranscrire un signal oscillant avec plus ou moins de fidélité, il faut au moins l’échantillonner avec le double de la fréquence de cette oscillation. plus la fréquence d'échantillonnage est élevé, plus l'acquisition est fidèle à la réalité (voyez le son pourri que les téléphones peuvent émettre...).

Un son c'est avant tout dans la durée. Donc oui !

La bande FM c'est 32 khz pour le signal audio normalement (bicanaux ? je pose la question car je sais pas.), 8 khz suffit pour un dictaphone qui enregistre sur bande magnétique ().
0  1