| | --- |
| | library_name: transformers |
| | license: gemma |
| | --- |
| | |
| | # Google USM: Extracted Gemma-3n Audio Encoder (USM) |
| |
|
| | > [!Note] |
| | > このモデルの実態は不明確です。[Introducing Gemma 3n: The developer guide](https://developers.googleblog.com/en/introducing-gemma-3n-developer-guide/#:~:text=Gemma%203n%20uses%20an%20advanced%20audio%20encoder%20based%20on%20the%20Universal%20Speech%20Model%20(USM).)には、 |
| | > USMに基づくエンコーダーが使用されていると記述されていますが、USMの論文とこのモデルにはいくつかの異なる点が存在します。 |
| | > このモデルは0.6Bですが、USMの論文の0.6Bモデルとは層の数が異なります。 |
| | > このモデルは Gemma 3n の AudioEncoder であり、本来の USM とは異なる可能性があります。 |
| |
|
| | ## Model Description |
| |
|
| | このモデルは、Googleのマルチモーダルモデル [google/gemma-3n-e2b-it](https://huggingface.co/google/gemma-3n-e2b-it) から、音声エンコーダー部分 (`audio_tower`) のみを抽出したものです。 |
| |
|
| | bf16版:https://huggingface.co/Atotti/google-usm-bf16 |
| |
|
| | アーキテクチャは、論文 [Universal Speech Model](https://arxiv.org/abs/2303.01037) に基づくGemma3nAudioEncoderです。 |
| |
|
| | このエンコーダーは、音声波形データを受け取り、その内容を表現する高次元の特徴量(エンコーディング)のシーケンスに変換する役割を果たします。 |
| |
|
| | ## Intended Use |
| |
|
| | このモデルは単体で音声認識(文字起こし)などを行うものではなく、より大きなモデルのコンポーネントとして使用されることを想定しています。 |
| |
|
| | * マルチモーダルモデルの音声入力部として: 生成AIに音声情報を与えるための特徴量を抽出します。 |
| | * 音声分類: このモデルの出力に分類ヘッドを追加して、特定の音声を分類するタスクでファインチューニングします。 |
| |
|
| | ## How to Use |
| |
|
| | ### dependencies |
| | ``` |
| | pip install transformers==4.53.0 |
| | ``` |
| |
|
| | ```python |
| | import torch |
| | import soundfile as sf |
| | from transformers import Gemma3nAudioEncoder, Gemma3nAudioFeatureExtractor |
| | |
| | encoder_id = "Atotti/google-usm" |
| | source_model_id = "google/gemma-3n-e2b-it" |
| | |
| | audio_encoder = Gemma3nAudioEncoder.from_pretrained(encoder_id) |
| | feature_extractor = Gemma3nAudioFeatureExtractor.from_pretrained(source_model_id) |
| | |
| | device = "cuda" if torch.cuda.is_available() else "cpu" |
| | audio_encoder.to(device) |
| | audio_encoder.eval() |
| | |
| | waveform, sampling_rate = sf.read("/path/to/your_audio_file.wav") |
| | |
| | |
| | inputs = feature_extractor( |
| | [waveform], |
| | sampling_rate=sampling_rate, |
| | return_tensors="pt" |
| | ) |
| | |
| | audio_mel = inputs["input_features"].to(device) |
| | audio_mel_mask = (inputs["input_features_mask"] == 0).to(device) |
| | |
| | with torch.inference_mode(): |
| | |
| | audio_encodings, output_mask = audio_encoder( |
| | audio_mel=audio_mel, |
| | audio_mel_mask=audio_mel_mask |
| | ) |
| | |
| | print(audio_encodings.shape) # torch.Size([1, 18, 1536]) |
| | print(audio_encodings[0, :5, :10]) |
| | # tensor([[ 0.0014, -0.0044, 0.0003, 0.0084, -0.0076, -0.0194, 0.0071, 0.0160, |
| | # 0.0137, 0.0146], |
| | # [-0.0153, 0.0051, 0.0111, -0.0134, -0.0032, -0.0134, 0.0112, -0.0163, |
| | # 0.0050, 0.0036], |
| | # [ 0.0003, -0.0022, 0.0164, -0.0090, -0.0033, -0.0043, 0.0030, -0.0042, |
| | # -0.0060, 0.0066], |
| | # [-0.0006, -0.0194, -0.0006, -0.0097, -0.0049, -0.0132, 0.0012, 0.0175, |
| | # -0.0242, -0.0091], |
| | # [ 0.0127, 0.0122, 0.0125, 0.0277, 0.0116, 0.0152, 0.0142, -0.0099, |
| | # -0.0080, -0.0233]], device='cuda:0') |
| | |
| | ``` |
| |
|
| | ## Model Architecture |
| | ``` |
| | Gemma3nAudioEncoder( |
| | (subsample_conv_projection): Gemma3nAudioSubSampleConvProjection( |
| | (conv_0): Gemma3nAudioSSCPConvBlock( |
| | (conv): Conv2d(1, 128, kernel_size=(3, 3), stride=(2, 2), bias=False) |
| | (norm): Gemma3nAudioCumulativeGroupNorm() |
| | (activation): ReLU() |
| | ) |
| | (conv_1): Gemma3nAudioSSCPConvBlock( |
| | (conv): Conv2d(128, 32, kernel_size=(3, 3), stride=(2, 2), bias=False) |
| | (norm): Gemma3nAudioCumulativeGroupNorm() |
| | (activation): ReLU() |
| | ) |
| | (input_proj_linear): Linear(in_features=1024, out_features=1536, bias=False) |
| | ) |
| | (conformer): ModuleList( |
| | (0-11): 12 x Gemma3nAudioConformerBlock( |
| | (ffw_layer_start): Gemma3nAudioConformerFeedForward( |
| | (pre_layer_norm): Gemma3nRMSNorm((1536,), eps=1e-06) |
| | (ffw_layer_1): Linear(in_features=1536, out_features=6144, bias=False) |
| | (ffw_layer_2): Linear(in_features=6144, out_features=1536, bias=False) |
| | (post_layer_norm): Gemma3nRMSNorm((1536,), eps=1e-06) |
| | ) |
| | (attention): Gemma3nAudioConformerAttention( |
| | (pre_attn_norm): Gemma3nRMSNorm((1536,), eps=1e-06) |
| | (attn): Gemma3nAudioAttention( |
| | (relative_position_embedding): Gemma3nAudioRelativePositionEmbedding( |
| | (pos_proj): Linear(in_features=1536, out_features=1536, bias=False) |
| | ) |
| | (q_proj): Linear(in_features=1536, out_features=1536, bias=False) |
| | (k_proj): Linear(in_features=1536, out_features=1536, bias=False) |
| | (v_proj): Linear(in_features=1536, out_features=1536, bias=False) |
| | ) |
| | (post): Linear(in_features=1536, out_features=1536, bias=False) |
| | (post_norm): Gemma3nRMSNorm((1536,), eps=1e-06) |
| | ) |
| | (lconv1d): Gemma3nAudioConformerLightConv1d( |
| | (pre_layer_norm): Gemma3nRMSNorm((1536,), eps=1e-06) |
| | (linear_start): Linear(in_features=1536, out_features=3072, bias=False) |
| | (depthwise_conv1d): Conv1d(1536, 1536, kernel_size=(5,), stride=(1,), groups=1536, bias=False) |
| | (conv_norm): Gemma3nRMSNorm((1536,), eps=1e-06) |
| | (linear_end): Linear(in_features=1536, out_features=1536, bias=False) |
| | ) |
| | (ffw_layer_end): Gemma3nAudioConformerFeedForward( |
| | (pre_layer_norm): Gemma3nRMSNorm((1536,), eps=1e-06) |
| | (ffw_layer_1): Linear(in_features=1536, out_features=6144, bias=False) |
| | (ffw_layer_2): Linear(in_features=6144, out_features=1536, bias=False) |
| | (post_layer_norm): Gemma3nRMSNorm((1536,), eps=1e-06) |
| | ) |
| | (norm): Gemma3nRMSNorm((1536,), eps=1e-06) |
| | ) |
| | ) |
| | ) |
| | ``` |
| |
|
| |
|