RenderSharedTimerDriven
このサンプル アプリケーションでは、コア オーディオ API を使用して、ユーザーが指定した出力デバイスにオーディオ データをレンダリングします。 このサンプルでは、共有モードでのレンダリング クライアントのタイマー駆動バッファリングを示します。 共有モード ストリームの場合、クライアントはエンドポイント バッファーをオーディオ エンジンと共有します。
このトピックには、次のセクションが含まれています。
形容
このサンプルでは、次の機能を示します。
- マルチメディア デバイスの列挙と選択のための MMDevice API を します。
- ストリーム管理操作用の WASAPI。
必要条件
積 | バージョン |
---|---|
Windows SDK の | Windows 7 |
Visual Studio | 2008 |
サンプルのダウンロード
このサンプルは、次の場所にあります。
場所 | パス/URL |
---|---|
Windows SDK | \Program Files\Microsoft SDKs\Windows\v7.0\Samples\Multimedia\Audio\RenderSharedTimerDriven\... |
サンプルのビルド
RenderSharedTimerDriven サンプルをビルドするには、次の手順に従います。
- Windows SDK の CMD シェルを開き、RenderSharedTimerDriven サンプル ディレクトリに変更します。
- RenderSharedTimerDriven ディレクトリ
start WASAPIRenderSharedTimerDriven.sln
コマンドを実行して、Visual Studio ウィンドウで WASAPIRenderSharedTimerDriven プロジェクトを開きます。 - ウィンドウ内から、デバッグ またはリリース ソリューション構成 選択し、メニュー バーから ビルド メニューを選択し、ビルド オプションを選択します。 SDK の CMD シェルから Visual Studio を開かない場合、Visual Studio は SDK ビルド環境にアクセスできません。 その場合、プロジェクト ファイル WASAPIRenderSharedTimerDriven.vcproj で使用される環境変数 MSSdk を明示的に設定しない限り、サンプルはビルドされません。
サンプルの実行
デモ アプリケーションを正常にビルドすると、実行可能ファイル (WASAPIRenderSharedTimerDriven.exe) が生成されます。 これを実行するには、コマンド ウィンドウに「WASAPIRenderSharedTimerDriven
」と入力し、その後に必須または省略可能な引数を入力します。 次の例は、既定のマルチメディア デバイスで再生時間を指定してサンプルを実行する方法を示しています。
WASAPIRenderSharedTimerDriven.exe -d 20 -multimedia
次の表に、引数を示します。
引数 | 形容 |
---|---|
-? | ヘルプを表示します。 |
-h | ヘルプを表示します。 |
-f | Hz 単位の正弦波周波数。 |
-l | オーディオ レンダリングの待機時間 (ミリ秒単位)。 |
-d | 正弦波の継続時間 (秒)。 |
-m | MMCSS の使用を無効にします。 |
-慰める | 既定のコンソール デバイスを使用します。 |
-通信 | 既定の通信デバイスを使用します。 |
-マルチメディア | 既定のマルチメディア デバイスを使用します。 |
-エンドポイント | スイッチ値で指定されたエンドポイント識別子を使用します。 |
アプリケーションを引数なしで実行すると、使用可能なデバイスが列挙され、レンダリング セッション用のデバイスを選択するようにユーザーに求められます。 ユーザーがデバイスを指定した後、アプリケーションは 440 Hz で 10 秒間正弦波をレンダリングします。 これらの値は、-f と -d スイッチの値を指定することで変更できます。
RenderSharedTimerDriven は、タイマー駆動バッファリングを示しています。 このモードでは、クライアントは一定期間 (-d スイッチ値で指定された待機時間の半分 (ミリ秒単位) 待機する必要があります。 クライアントが起動すると、処理期間の途中で、エンジンから次のサンプル セットがプルされます。 各処理がバッファリング ループに入る前に、クライアントは、データがバッファーをオーバーランしないように、レンダリングするデータの量を確認する必要があります。
指定されたデバイスで再生されるオーディオ データは、イベント ドリブン バッファリングを有効にすることで処理できます。 このモードは、RenderSharedEventDriven サンプルで示されています。
ストリームのレンダリングの詳細については、「Streamのレンダリング」を参照してください。
関連トピック
-
コア オーディオ API を使用する SDK サンプルを する