RenderSharedEventDriven
Cet exemple d’application utilise les API Core Audio pour restituer des données audio sur un appareil de sortie, spécifié par l’utilisateur. Cet exemple illustre la mise en mémoire tampon pilotée par les événements pour un client de rendu en mode partagé. Pour un flux en mode partagé, le client partage la mémoire tampon de point de terminaison avec le moteur audio.
Cette rubrique contient les sections suivantes.
- Description
- Configuration requise
- télécharger l’exemple de
- Génération de l’exemple de
- Exécuter l’exemple de
- rubriques connexes
Description
Cet exemple illustre les fonctionnalités suivantes.
- 'API MMDevice pour l’énumération et la sélection d’appareils multimédias.
- WASAPI pour les opérations de gestion de flux.
Exigences
Produit | Version |
---|---|
sdk Windows | Windows 7 |
Visual Studio | 2008 |
Téléchargement de l’exemple
Cet exemple est disponible dans les emplacements suivants.
Emplacement | Chemin/URL |
---|---|
Kit de développement logiciel (SDK) Windows | \Program Files\Microsoft SDKs\Windows\v7.0\Samples\Multimedia\Audio\RenderSharedEventDriven\... |
Génération de l’exemple
Pour générer l’exemple RenderSharedEventDriven, procédez comme suit :
- Ouvrez l’interpréteur de commandes CMD pour le Kit de développement logiciel (SDK) Windows et accédez à l’exemple de répertoire RenderSharedEventDriven.
- Exécutez la commande
start WASAPIRenderSharedEventDriven.sln
dans le répertoire RenderSharedEventDriven pour ouvrir le projet WASAPIRenderSharedEventDriven dans la fenêtre Visual Studio. - Dans la fenêtre, sélectionnez le de débogage ou configuration de la solution Release, sélectionnez le menu build dans la barre de menus, puis sélectionnez l’option Générer. Si vous n’ouvrez pas Visual Studio à partir de l’interpréteur de commandes CMD pour le Kit de développement logiciel (SDK), Visual Studio n’aura pas accès à l’environnement de génération du SDK. Dans ce cas, l’exemple ne sera pas généré, sauf si vous définissez explicitement la variable d’environnement MSSdk, qui est utilisée dans le fichier projet, WASAPIRenderSharedEventDriven.vcproj.
Exécution de l’exemple
Si vous générez l’application de démonstration avec succès, un fichier exécutable, WASAPIRenderSharedEventDriven.exe, est généré. Pour l’exécuter, tapez WASAPIRenderSharedEventDriven
dans une fenêtre de commande suivie d’arguments obligatoires ou facultatifs. L’exemple suivant montre comment exécuter l’exemple en spécifiant la durée de lecture sur l’appareil multimédia par défaut.
WASAPIRenderSharedEventDriven.exe -d 20 -multimedia
Le tableau suivant présente les arguments.
Argument | Description |
---|---|
-? | Affiche l’aide. |
-h | Affiche l’aide. |
-f | Fréquence d’onde sinusoïque en Hz. |
-l | Latence de rendu audio en millisecondes. |
-d | Durée de l’onde sinus en secondes. |
-m | Désactive l’utilisation de MMCSS. |
-consoler | Utilisez l’appareil de console par défaut. |
-communications | Utilisez l’appareil de communication par défaut. |
-multimédia | Utilisez l’appareil multimédia par défaut. |
-extrémité | Utilisez l’identificateur de point de terminaison spécifié dans la valeur du commutateur. |
Si l’application est exécutée sans arguments, elle énumère les appareils disponibles et invite l’utilisateur à sélectionner un appareil pour la session de rendu. Une fois l’utilisateur spécifié un appareil, l’application restitue une vague de sinus à 440 Hz pendant 10 secondes. Ces valeurs peuvent être modifiées en spécifiant -f et -d valeurs de commutateur.
RenderSharedEventDriven illustre la mise en mémoire tampon pilotée par les événements. L’exemple montre comment :
- Instanciez un client audio, configurez-le pour qu’il s’exécute en mode exclusif et activez la mise en mémoire tampon pilotée par les événements en définissant l’indicateur AUDCLNT_STREAMFLAGS_EVENTCALLBACK dans l’appel sur IAudioClient ::Initialize.
- Associez le client aux exemples prêts à être rendus en fournissant un handle d’événement au système en appelant la méthode IAudioClient ::SetEventHandle.
- Créez un thread de rendu pour effectuer des exemples à partir du moteur audio.
- Vérifiez le format de combinaison du point de terminaison de l’appareil pour déterminer si les exemples peuvent être affichés. Si l’appareil ne prend pas en charge le format de combinaison, les données sont converties en PCM.
- Gérer le basculement de flux.
Une fois la session de rendu démarrée et le flux démarré, le moteur audio signale le handle d’événement fourni pour avertir le client chaque fois qu’une mémoire tampon est prête pour le client à traiter. Les données audio peuvent également être traitées dans une boucle pilotée par minuteur. Ce mode est illustré dans l’exemple RenderSharedTimerDriven.
Pour plus d’informations sur le rendu d’un flux, consultez Rendu d’un flux.
Rubriques connexes
-
exemples de sdk qui utilisent les API audio principales