Freigeben über


RenderExclusiveEventDriven

Diese Beispielanwendung verwendet die Core Audio-APIs, um Audiodaten auf einem vom Benutzer angegebenen Ausgabegerät zu rendern. In diesem Beispiel wird die ereignisgesteuerte Pufferung für einen Renderingclient im exklusiven Modus veranschaulicht. Bei einem Exklusivmodusdatenstrom teilt der Client den Endpunktpuffer mit dem Audiogerät.

Dieses Thema enthält die folgenden Abschnitte.

Beschreibung

In diesem Beispiel werden die folgenden Features veranschaulicht.

  • MMDevice-API für die Enumeration und Auswahl von Multimediageräten.
  • WASAPI für Datenstromverwaltungsvorgänge.

Anforderungen

Produkt Version
Windows SDK- Windows 7
Visual Studio 2008

 

Herunterladen des Beispiels

Dieses Beispiel ist an den folgenden Speicherorten verfügbar.

Ort Pfad/URL
Windows SDK \Programme\Microsoft SDKs\Windows\v7.0\Samples\Multimedia\Audio\RenderExclusiveEventDriven\...

 

Erstellen des Beispiels

Führen Sie die folgenden Schritte aus, um das RenderExclusiveEventDriven-Beispiel zu erstellen:

  1. Öffnen Sie die CMD-Shell für das Windows SDK, und wechseln Sie zum RenderExclusiveEventDriven-Beispielverzeichnis.
  2. Führen Sie den Befehl start WASAPIRenderExclusiveEventDriven.sln im Verzeichnis RenderExclusiveEventDriven aus, um das WASAPIRenderExclusiveEventDriven-Projekt im Visual Studio-Fenster zu öffnen.
  3. Wählen Sie im Fenster die Debug- oder Release Lösungskonfiguration aus, wählen Sie das Menü Erstellen in der Menüleiste und dann die Option Erstellen aus. Wenn Sie Visual Studio nicht über die CMD-Shell für das SDK öffnen, hat Visual Studio keinen Zugriff auf die SDK-Buildumgebung. In diesem Fall wird das Beispiel nur erstellt, wenn Sie die Umgebungsvariable MSSdk explizit festlegen, die in der Projektdatei verwendet wird, WASAPIRenderExclusiveEventDriven.vcproj.

Ausführen des Beispiels

Wenn Sie die Demoanwendung erfolgreich erstellen, wird eine ausführbare Datei WASAPIRenderExclusiveEventDriven.exegeneriert. Geben Sie zum Ausführen WASAPIRenderExclusiveEventDriven in ein Befehlsfenster ein, gefolgt von erforderlichen oder optionalen Argumenten. Das folgende Beispiel zeigt, wie Sie das Beispiel ausführen, indem Sie die Wiedergabedauer auf dem Standard-Multimediagerät angeben.

WASAPIRenderExclusiveEventDriven.exe -d 20 -multimedia

In der folgenden Tabelle sind die Argumente aufgeführt.

Argument Beschreibung
-? Zeigt Hilfe an.
-h Zeigt Hilfe an.
-f Sinuswellenfrequenz in Hz.
-l Audiowiedergabelatenz in Millisekunden.
-d Sinuswellendauer in Sekunden.
-m Deaktiviert die Verwendung von MMCSS.
-Konsole Verwenden Sie das Standardkonsolengerät.
-Kommunikationen Verwenden Sie das Standardkommunikationsgerät.
-Multimedia Verwenden Sie das Standardmäßige Multimediagerät.
-Endpunkt Verwenden Sie den im Switchwert angegebenen Endpunktbezeichner.

 

Wenn die Anwendung ohne Argumente ausgeführt wird, listet sie die verfügbaren Geräte auf und fordert den Benutzer auf, ein Gerät für die Renderingsitzung auszuwählen. Nachdem der Benutzer ein Gerät angegeben hat, rendert die Anwendung eine Sinuswelle mit 440 Hz für 10 Sekunden. Diese Werte können geändert werden, indem sie -f und -d Schalterwerte angeben.

Das RenderExclusiveEventDriven-Beispiel veranschaulicht die ereignisgesteuerte Pufferung. Im Beispiel wird gezeigt, wie Sie:

  • Instanziieren Sie einen Audioclient, konfigurieren Sie ihn für die Ausführung im exklusiven Modus, und aktivieren Sie die ereignisgesteuerte Pufferung, indem Sie das AUDCLNT_STREAMFLAGS_EVENTCALLBACK Flag im Aufruf auf IAudioClient::Initializefestlegen.
  • Ordnen Sie den Client den Beispielen zu, die gerendert werden können, indem Sie ein Ereignishandle für das System bereitstellen, indem Sie die IAudioClient::SetEventHandle-Methode aufrufen.
  • Erstellen Sie einen Renderthread zum Verarbeiten von Beispielen aus dem Audiomodul.
  • Richten Sie die Puffer ordnungsgemäß an einer Grenze von 128 Byte aus, bevor Sie sie an das Gerät senden. Dies geschieht durch Anpassen der Periodizität des Motors.
  • Überprüfen Sie das Mixformat des Geräteendpunkts, um zu ermitteln, ob die Beispiele gerendert werden können. Wenn das Gerät das Mixformat nicht unterstützt, werden die Daten in PCM konvertiert.
  • Behandeln Des Datenstromwechsels.

Nach Beginn der Renderingsitzung und dem Start des Datenstroms signalisiert das Audiomodul den bereitgestellten Ereignishandle, um den Client jedes Mal zu benachrichtigen, wenn ein Puffer für den Client verarbeitet werden kann. Die Audiodaten können auch in einer zeitgesteuerten Schleife verarbeitet werden. Dieser Modus wird im beispiel RenderExclusiveTimerDriven veranschaulicht.

Weitere Informationen zum Rendern eines Datenstroms finden Sie unter Rendern eines Stream-.

SDK-Beispiele, die die kernigen Audio-APIs