Share via


AudioFormat 클래스

정의

클래스는 AudioFormat 여러 오디오 형식 및 채널 구성 상수에 액세스하는 데 사용됩니다.

[Android.Runtime.Register("android/media/AudioFormat", DoNotGenerateAcw=true)]
public class AudioFormat : Java.Lang.Object, Android.OS.IParcelable, IDisposable, Java.Interop.IJavaPeerable
[<Android.Runtime.Register("android/media/AudioFormat", DoNotGenerateAcw=true)>]
type AudioFormat = class
    inherit Object
    interface IParcelable
    interface IJavaObject
    interface IDisposable
    interface IJavaPeerable
상속
AudioFormat
특성
구현

설명

클래스는 AudioFormat 여러 오디오 형식 및 채널 구성 상수에 액세스하는 데 사용됩니다. 및 에서 AudioTrackAudioRecord사용되는 instance 이며, 네 번째 매개 변수는 상수 중 하나인 와 같은 AudioTrack#AudioTrack(int, int, int, int, int, int)생성자의 개별 매개 변수에서 AudioFormat.ENCODING_* 유효한 값입니다. 상수는 AudioFormat 에서 MediaFormat 와 같이 MediaFormat#KEY_CHANNEL_MASK미디어에서 일반적으로 사용되는 오디오 관련 값을 지정하는 데도 사용됩니다.

클래스를 AudioFormat.Builder 사용하여 형식 클래스의 인스턴스를 AudioFormat 만들 수 있습니다. AudioFormat.Builder 이러한 인스턴스의 구성 및 빌드 메커니즘에 대한 설명서는 을 참조하세요. 여기에서는 클래스가 각 instance 전달할 수 있는 기본 개념을 AudioFormat 설명합니다<. ol><li>샘플 속도<li 인코딩<li>>채널 마스크</ol>

와 밀접하게 연결된 AudioFormat 은 오디오 프레임의 개념으로, 설명서 전체에서 오디오 데이터의 최소 크기 전체 단위를 나타내는 데 사용됩니다.

<h4 id="sampleRate">샘플 속도</h4>

Hz로 표현된 instance 샘플 속도 AudioFormat 는 재생 또는 녹음 중인 콘텐츠에서 초당 각 채널에 대한 오디오 샘플 수를 표현합니다. 콘텐츠가 렌더링되거나 생성되는 샘플 속도는 아닙니다. 8000Hz의 미디어 샘플 속도로 소리를 instance 경우 48000Hz의 샘플 속도로 작동하는 장치에서 재생할 수 있습니다. 샘플 속도 변환은 플랫폼에서 자동으로 처리되며 6배 속도로 재생되지 않습니다.

API android.os.Build.VERSION_CODES#M를 기준으로, 및 에 대해 최대 192kHz의 샘플 속도가 지원 AudioRecordAudioTrack되며 필요에 따라 샘플 속도 변환이 수행됩니다. 효율성을 개선하고 손실 변환을 방지하려면 엔드포인트 디바이스 샘플 속도에 AudioTrack 대한 AudioRecord 샘플 속도를 일치시키고 더 높은 속도를 보증하는 특수 디바이스 기능이 없는 한 샘플 속도를 48kHz 이하로 제한하는 것이 좋습니다.

<h4 id="인코딩">인코딩</h4>

오디오 인코딩은 선형 PCM 또는 AC3 또는 DTS와 같은 압축 오디오일 수 있는 오디오 데이터의 비트 표현을 설명하는 데 사용됩니다.

선형 PCM의 경우 오디오 인코딩은 샘플 크기, 8비트, 16비트 또는 32비트, 샘플 표현, 정수 또는 부동 소수점 등을 설명합니다. <ul><li>#ENCODING_PCM_8BIT: 오디오 샘플은 [0, 255] 범위의 8비트 부호 없는 정수이며 0의 오프셋은 128입니다. 일반적으로 바이트 배열 또는 ByteBuffer에 Java 바이트로 저장됩니다. Java 바이트는 em>signed</em>이므로 <가장 중요한 비트가 반전되므로 수학 연산 및 변환에 주의해야 합니다. </li li><>#ENCODING_PCM_16BIT: 오디오 샘플은 일반적으로 짧은 배열에서 Java short로 저장된 16비트 부호 있는 정수이지만, Short가 ByteBuffer에 저장되면 기본 Java big endian과 비교하여 네이티브 엔디안입니다. 짧은 [-32768, 32767]의 전체 범위를 가지며 고정 지점 Q.15 데이터로 해석되기도 합니다. </li><li>#ENCODING_PCM_FLOAT: API android.os.Build.VERSION_CODES#LOLLIPOP에 도입된 이 인코딩은 오디오 샘플이 32비트 IEEE 단일 정밀도 부동 소수점임을 지정합니다. 샘플은 부동 소수점 배열에서 Java float로 조작할 수 있지만 ByteBuffer 내에서는 네이티브 엔디안 바이트 순서로 저장됩니다. 오디오 데이터의 명목 범위 ENCODING_PCM_FLOAT 는 [-1.0, 1.0]입니다. 1.0의 양수 최대값이 간격에 포함되는지 여부에 따라 구현됩니다. 명목 범위를 벗어난 값은 엔드포인트 디바이스로 보내기 전에 고정됩니다. NaN 처리가 정의되지 않은지 주의합니다. 하위 열은 0으로 처리될 수 있습니다. 및 무한대는 일반적으로 &ndash에 대한 AudioTrack 다른 값과 마찬가지로 고정됩니다. NaN을 쉽게 생성할 수 있으므로 무한을 피하십시오. <br> 부호 있는 16비트 정수 짧음보다 더 높은 오디오 비트 깊이를 얻으려면 오디오 캡처, 처리 및 재생에 사용하는 ENCODING_PCM_FLOAT 것이 좋습니다. 부동 소수점은 최신 CPU에 의해 효율적으로 조작되고, 부화된 24비트 정수보다 정밀도가 높으며, 32비트 부속 정수보다 더 큰 동적 범위를 갖습니다. AudioRecordAPI 및 AudioTrack API android.os.Build.VERSION_CODES#Mandroid.os.Build.VERSION_CODES#LOLLIPOP 지원 ENCODING_PCM_FLOAT기준으로 입니다. </li><li>#ENCODING_PCM_24BIT_PACKED: API android.os.Build.VERSION_CODES#S에 도입된 이 인코딩은 오디오 샘플이 네이티브 엔디안의 또는 바이트 배열에서 3 Java 바이트로 저장된 확장된 전체 자릿수 24비트 부호 있는 정수 ByteBuffer 임을 지정합니다(참조 java.nio.ByteOrder#nativeOrder()). 각 샘플에는 [-8388608, 8388607]의 전체 범위가 있으며 고정 지점 Q.23 데이터로 해석할 수 있습니다. </li><li>#ENCODING_PCM_32BIT: API android.os.Build.VERSION_CODES#S에 도입된 이 인코딩은 오디오 샘플이 네이티브 엔디안의 또는 바이트 배열에서 4 Java 바이트로 저장된 확장된 전체 자릿수 32비트 부호 있는 정수 ByteBuffer 임을 지정합니다(참조 java.nio.ByteOrder#nativeOrder()). 각 샘플에는 [-2147483648, 2147483647]의 전체 범위가 있으며 고정 지점 Q.31 데이터로 해석할 수 있습니다. </li></ul>

압축 오디오의 경우 인코딩은 압축 방법(예 #ENCODING_AC3 : 및 )을 #ENCODING_DTS지정합니다. 압축된 오디오 데이터는 일반적으로 바이트 배열 또는 ByteBuffer에 바이트로 저장됩니다. 에 대해 압축 오디오 인코딩을 지정 AudioTrack하면 압축된 오디오를 디코딩할 수 있는 엔드포인트(예: HDMI)에 출력하기 위한 직접(혼합되지 않은) 트랙을 만듭니다. 이러한 압축된 오디오를 디코딩할 수 없는 다른 엔드포인트의 경우 일반적으로 를 만들어 MediaCodec데이터를 먼저 디코딩해야 합니다. 또는 압축된 오디오 파일 또는 스트림 재생에 를 사용할 MediaPlayer 수 있습니다.

압축된 오디오가 직접 AudioTrack를 통해 전송되는 경우 오디오 액세스 단위의 정확한 배수로 작성할 필요가 없습니다. 이는 입력 버퍼와 다릅니다 MediaCodec .

<h4 id="channelMask">채널 마스크</h4>

채널 마스크는 및 AudioRecord 에서 AudioTrack 샘플 및 오디오 프레임의 정렬을 설명하는 데 사용됩니다. 또한 엔드포인트(예: USB 오디오 인터페이스, 헤드폰에 연결된 DAC)에서 특정 디바이스의 허용 가능한 구성을 지정하는 데 사용됩니다. <br>API android.os.Build.VERSION_CODES#M를 기준으로 채널 마스크에는 채널 위치 마스크와 채널 인덱스 마스크의 두 가지 유형이 있습니다.

<h5 id="channelPositionMask">채널 위치 마스크</h5> 채널 위치 마스크는 원래 Android 채널 마스크이며 API android.os.Build.VERSION_CODES#BASE이후 사용됩니다. 입력 및 출력의 경우 스피커의 위치 또는 녹음 또는 재생을 위한 마이크의 위치인 위치 특성을 의미합니다. <br>채널 위치 마스크의 경우 허용되는 각 채널 위치는 채널 마스크의 비트에 해당합니다. 해당 채널 위치가 오디오 프레임에 있으면 해당 비트가 설정되고, 그렇지 않으면 0입니다. 비트의 순서(lsb에서 msb로)는 오디오 프레임에서 해당 위치 샘플의 순서에 해당합니다. <br>채널 수별 정식 채널 위치 마스크는 다음과 같습니다<. br><table><tr><td>channel count</td td><>channel position mask</td></tr tr tr<><>td>1</td><td<>#CHANNEL_OUT_MONO/td></tr tr><><td>2</td td#CHANNEL_OUT_STEREO<><>/td></tr><tr tr><td>3</td td | #CHANNEL_OUT_FRONT_CENTER><><#CHANNEL_OUT_STEREO/td></tr tr tr><td 4><></td td><><#CHANNEL_OUT_QUAD/td></tr tr tr<>><td>5</td#CHANNEL_OUT_FRONT_CENTER><>< | #CHANNEL_OUT_QUAD/td></tr tr<>td>><6</td#CHANNEL_OUT_5POINT1><></td></tr tr tr><><td>7</td><td#CHANNEL_OUT_BACK_CENTER | <#CHANNEL_OUT_5POINT1>/td></tr<>tr tr><td>8</td><td>#CHANNEL_OUT_7POINT1_SURROUND</td></tr<>/table><br>이 마스크는 ORed 복합입니다. 개별 채널 마스크. 예를 들어 #CHANNEL_OUT_STEREO 은 및 #CHANNEL_OUT_FRONT_RIGHT#CHANNEL_OUT_FRONT_LEFT 구성됩니다.

다음 다이어그램은 수신기 위에서 볼 수 있는 출력 채널의 레이아웃을 나타냅니다(가운데의 "lis" 위치, 프런트 센터 채널 연결).

TFL ----- TFC ----- TFR     T is Top
                  |  \       |       /  |
                  |   FL --- FC --- FR  |     F is Front
                  |   |\     |     /|   |
                  |   | BFL-BFC-BFR |   |     BF is Bottom Front
                  |   |             |   |
                  |   FWL   lis   FWR   |     W is Wide
                  |   |             |   |
                 TSL  SL    TC     SR  TSR    S is Side
                  |   |             |   |
                  |   BL --- BC -- BR   |     B is Back
                  |  /               \  |
                  TBL ----- TBC ----- TBR     C is Center, L/R is Left/Right

모든 "T"(위쪽) 채널은 수신기 위에 있고, 모든 "BF"(맨 아래) 채널은 수신기 아래에 있고, 다른 모든 채널은 수신기의 가로 평면에 있습니다. 함께 사용하는 경우 LFE1 및 LFE2는 수신기 아래에 있으며, 단독으로 사용하면 LFE 평면이 정의되지 않습니다. 약어에 대한 채널 정의를 참조하세요.

<h5 id="channelIndexMask">채널 인덱스< 마스크/h5> 채널 인덱스 마스크는 API android.os.Build.VERSION_CODES#M에 도입됩니다. 원본 또는 싱크 엔드포인트에서 숫자로 특정 채널(예: 첫 번째 채널, 두 번째 채널 등)을 선택할 수 있습니다. 이렇게 하면 엔드포인트의 채널에 위치를 인위적으로 할당하거나 i sup>th/sup> 위치 비트가 엔드포인트의 채널 위치 마스크 내에 있는 항목을<구성하는 문제를 방지할 수 있습니다. <<br>채널 인덱스 마스크가 이러한 혼동을 해결하는 예는 다음과 같습니다. 4개 채널 USB 디바이스를 처리합니다. 위치 마스크를 사용하고 채널 수 #CHANNEL_OUT_QUAD 에 따라 디바이스가 되지만 실제로 채널 0부터 채널 3까지만 관심이 있습니다. 그러면 USB 디바이스에는 개별 비트 채널 마스크, , #CHANNEL_OUT_FRONT_RIGHT#CHANNEL_OUT_BACK_LEFT#CHANNEL_OUT_BACK_RIGHT가 있습니다#CHANNEL_OUT_FRONT_LEFT. 하지만 채널 0은 무엇인가요? 채널 3은 무엇인가요? <br>채널 인덱스 마스크의 경우 각 채널 번호는 마스크의 비트로, lsb(채널 0)에서 msb까지, 숫자적으로 이 비트 값은 입니다 1 << channelNumber. 설정된 비트는 채널이 오디오 프레임에 있음을 나타내고, 그렇지 않으면 지워집니다. 비트의 순서는 오디오 프레임에서 해당 채널 번호의 샘플 순서에도 해당합니다. <br>이전 4 채널 USB 디바이스 예제의 경우 디바이스에는 채널 인덱스 마스크 0xF가 있습니다. 첫 번째 채널과 세 번째 채널만 선택하려고 했습니다. 채널 인덱스 마스크 0x5 (첫 번째 및 세 번째 비트 집합)에 해당합니다. 이 채널 인덱스 마스크를 AudioTrack 사용하는 경우 오디오 프레임은 두 개의 샘플, 채널 0으로 라우팅된 각 프레임의 첫 번째 샘플, 채널 2로 라우팅된 각 프레임의 두 번째 샘플로 구성됩니다. 채널 수별 정식 채널 인덱스 마스크는 수식 (1 << channelCount) - 1에 의해 지정됩니다.

<h5>사용 사례</h5<>ul<>li>채널 위치 마스크는 HDMI 홈 시어터 용도로 엔드포인트:CHANNEL_OUT_FRONT_LEFT, CHANNEL_OUT_FRONT_CENTER등용입니다. <li>오디오 스트림에 대한 채널 위치 마스크: 5.1 다중 채널 출력을 작성할 출력 동영상 콘텐츠를 만드는 AudioTrack 것입니다. <li>엔드포인트에 대한 채널 인덱스 마스크: 입력 및 출력이 왼쪽 또는 오른쪽 스피커 또는 마이크에 해당하지 않는 USB 디바이스입니다. <li>오디오 스트림에 대한 채널 인덱스 마스크:AudioRecord 엔드포인트의 세 번째 및 네 번째 오디오 채널(즉, 두 번째 채널 쌍)만 원할 수 있으며 해당 위치에 대해 신경 쓰지 않을 수 있습니다. 이 경우 채널 인덱스 마스크는 입니다 0xC. 다중 채널 AudioRecord 세션은 채널 인덱스 마스크를 사용해야 합니다. </ul><h4 id="audioFrame">Audio Frame</h4>

선형 PCM의 경우 오디오 프레임은 동시에 캡처된 샘플 집합으로 구성되며, 채널 마스크에서 개수 및 채널 연결을 지정하고 인코딩으로 샘플 콘텐츠를 지정합니다. 예를 들어 스테레오 16비트 PCM 프레임은 프레임 크기가 4바이트인 2개의 16비트 선형 PCM 샘플로 구성됩니다. 압축 오디오의 경우 오디오 프레임은 오디오 프레임이 사용되는 컨텍스트에 따라 디코딩 및 비트스트림 액세스를 위해 논리적으로 그룹화된 압축 데이터 바이트의 액세스 단위(예: MediaCodec) 또는 압축된 데이터의 단일 바이트(예: AudioTrack#getBufferSizeInFrames() AudioTrack.getBufferSizeInFrames())를 참조하거나 압축된 데이터 디AudioTrack#getPlaybackHeadPosition() AudioTrack.getPlaybackHeadPosition()코딩으로 인한 선형 PCM 프레임 결과를 참조할 수 있습니다. 를 위해 AudioFormat#getFrameSizeInBytes()압축된 데이터 형식은 1 바이트의 프레임 크기를 반환합니다.

에 대한 Java 설명서입니다 android.media.AudioFormat.

이 페이지의 일부는 만들고 공유하며 에 설명된 조건에 따라 사용되는 작업을 기반으로 수정됩니다.

생성자

AudioFormat()
AudioFormat(IntPtr, JniHandleOwnership)

JNI 개체의 관리형 표현을 만들 때 사용되는 생성자입니다. 런타임에서 호출합니다.

필드

ChannelInvalid

잘못된 오디오 채널 마스크

ChannelOut5point1point2
사용되지 않음.

5에 대한 출력 채널 마스크입니다.

ChannelOut5point1point4
사용되지 않음.

5에 대한 출력 채널 마스크입니다.

ChannelOut6point1
사용되지 않음.

6에 대한 출력 채널 마스크입니다.

ChannelOut7point1

이 멤버는 더 이상 사용되지 않습니다.

ChannelOut7point1point2
사용되지 않음.

7에 대한 출력 채널 마스크입니다.

ChannelOut7point1point4
사용되지 않음.

7에 대한 출력 채널 마스크입니다.

ChannelOut9point1point4
사용되지 않음.

9에 대한 출력 채널 마스크입니다.

ChannelOut9point1point6
사용되지 않음.

9에 대한 출력 채널 마스크입니다.

ChannelOutBottomFrontCenter
사용되지 않음.

아래쪽 프런트 센터 출력 채널(FC 아래 채널 다이어그램의 BFC 참조)

ChannelOutBottomFrontLeft
사용되지 않음.

왼쪽 아래 출력 채널(FL 아래의 채널 다이어그램에서 BFL 참조)

ChannelOutBottomFrontRight
사용되지 않음.

오른쪽 아래 출력 채널(FR 아래의 채널 다이어그램에서 BFR 참조)

ChannelOutFrontWideLeft
사용되지 않음.

프런트 와이드 왼쪽 출력 채널(채널 다이어그램의 FWL 참조)

ChannelOutFrontWideRight
사용되지 않음.

프런트 와이드 오른쪽 출력 채널(채널 다이어그램의 FWR 참조)

ChannelOutLowFrequency2
사용되지 않음.

두 번째 LFE 채널과 함께 #CHANNEL_OUT_LOW_FREQUENCY사용되는 경우 ITU-R BS에서 "LFE2"라고도 하는 올바른 저주파 효과 신호를 포함하기 위한 것입니다.

ChannelOutTopBackCenter
사용되지 않음.

상위 백 센터 출력 채널(BC 위의 채널 다이어그램에서 TBC 참조)

ChannelOutTopBackLeft
사용되지 않음.

왼쪽 위 출력 채널(BL 위의 채널 다이어그램에서 TBL 참조)

ChannelOutTopBackRight
사용되지 않음.

오른쪽 위 출력 채널(BR 위의 채널 다이어그램에서 TBR 참조)

ChannelOutTopCenter
사용되지 않음.

위쪽 중심(수신기 위) 출력 채널(채널 다이어그램의 TC 참조)

ChannelOutTopFrontCenter
사용되지 않음.

최상위 프런트 센터 출력 채널(FC 위의 채널 다이어그램에서 TFC 참조)

ChannelOutTopFrontLeft
사용되지 않음.

왼쪽 위 출력 채널(FL 위의 채널 다이어그램에서 TFL 참조)

ChannelOutTopFrontRight
사용되지 않음.

위쪽 오른쪽 출력 채널(FR 위의 채널 다이어그램에서 TFR 참조)

ChannelOutTopSideLeft
사용되지 않음.

왼쪽 위 출력 채널(SL 위의 채널 다이어그램에서 TSL 참조)

ChannelOutTopSideRight
사용되지 않음.

위쪽 오른쪽 출력 채널(SR 위의 채널 다이어그램에서 TSR 참조)

EncodingDra
사용되지 않음.

오디오 데이터 형식: DRA 압축

EncodingDsd
사용되지 않음.

오디오 데이터 형식: Direct Stream Digital

EncodingDtsHdMa
사용되지 않음.

오디오 데이터 형식: DTS HD 마스터 오디오 압축 DTS HD 마스터 오디오 스트림은 가변 비트 속도이며 무손실 오디오를 포함합니다.

EncodingDtsUhd

오디오 데이터 형식: DTS UHD Profile-1 압축(예: DTS:X 프로필 1)은 ENCODING_DTS_UHD_P1 의미와 값이 동일합니다.

EncodingDtsUhdP1
사용되지 않음.

오디오 데이터 형식: DTS UHD 프로필-1 압축(DTS:X 프로필 1)은 사용되지 않는 #ENCODING_DTS_UHD와 동일한 의미와 값을 가집니다.

EncodingDtsUhdP2
사용되지 않음.

오디오 데이터 형식: DTS UHD Profile-2 압축 DTS-UHD Profile-2는 Channel-Based 오디오, Object-Based 오디오 및 고차 앰비소닉 프레젠테이션의 배달을 네 번째 순서까지 지원합니다.

EncodingMpeghBlL3
사용되지 않음.

오디오 데이터 형식: MPEG-H 기준 프로필, 수준 3

EncodingMpeghBlL4
사용되지 않음.

오디오 데이터 형식: MPEG-H 기준 프로필, 수준 4

EncodingMpeghLcL3
사용되지 않음.

오디오 데이터 형식: MPEG-H 낮은 복잡성 프로필, 수준 3

EncodingMpeghLcL4
사용되지 않음.

오디오 데이터 형식: MPEG-H 낮은 복잡성 프로필, 수준 4

EncodingOpus
사용되지 않음.

오디오 데이터 형식: OPUS가 압축되었습니다.

EncodingPcm24bitPacked
사용되지 않음.

오디오 데이터 형식: 3바이트로 압축된 샘플당 PCM 24비트입니다.

EncodingPcm32bit
사용되지 않음.

오디오 데이터 형식: 샘플당 PCM 32비트입니다.

SampleRateUnspecified

샘플 속도는 경로 종속 값이 됩니다.

속성

ChannelCount

채널 수를 반환합니다.

ChannelIndexMask

채널 인덱스 마스크를 반환합니다.

ChannelMask

채널 마스크를 반환합니다.

Class

Object의 런타임 클래스를 반환합니다.

(다음에서 상속됨 Object)
Creator

클래스는 AudioFormat 여러 오디오 형식 및 채널 구성 상수에 액세스하는 데 사용됩니다.

Encoding

인코딩을 반환합니다.

FrameSizeInBytes

프레임 크기를 바이트 단위로 반환합니다.

Handle

기본 Android instance 대한 핸들입니다.

(다음에서 상속됨 Object)
JniIdentityHashCode

클래스는 AudioFormat 여러 오디오 형식 및 채널 구성 상수에 액세스하는 데 사용됩니다.

(다음에서 상속됨 Object)
JniPeerMembers

클래스는 AudioFormat 여러 오디오 형식 및 채널 구성 상수에 액세스하는 데 사용됩니다.

PeerReference

클래스는 AudioFormat 여러 오디오 형식 및 채널 구성 상수에 액세스하는 데 사용됩니다.

(다음에서 상속됨 Object)
SampleRate

샘플 속도를 반환합니다.

ThresholdClass

이 API는 Android용 Mono 인프라를 지원하며 코드에서 직접 사용할 수 없습니다.

ThresholdType

이 API는 Android용 Mono 인프라를 지원하며 코드에서 직접 사용할 수 없습니다.

메서드

Clone()

이 개체의 복사본을 만들고 반환합니다.

(다음에서 상속됨 Object)
DescribeContents()

클래스는 AudioFormat 여러 오디오 형식 및 채널 구성 상수에 액세스하는 데 사용됩니다.

Dispose()

클래스는 AudioFormat 여러 오디오 형식 및 채널 구성 상수에 액세스하는 데 사용됩니다.

(다음에서 상속됨 Object)
Dispose(Boolean)

클래스는 AudioFormat 여러 오디오 형식 및 채널 구성 상수에 액세스하는 데 사용됩니다.

(다음에서 상속됨 Object)
Equals(Object)

다른 개체가 이 개체와 "같음"인지 여부를 나타냅니다.

(다음에서 상속됨 Object)
GetHashCode()

개체의 해시 코드 값을 반환합니다.

(다음에서 상속됨 Object)
JavaFinalize()

가비지 수집에서 개체에 대한 참조가 더 이상 없다고 판단할 때 개체의 가비지 수집기에서 호출됩니다.

(다음에서 상속됨 Object)
Notify()

이 개체의 모니터에서 대기 중인 단일 스레드를 해제합니다.

(다음에서 상속됨 Object)
NotifyAll()

이 개체의 모니터에서 대기 중인 모든 스레드를 해제합니다.

(다음에서 상속됨 Object)
SetHandle(IntPtr, JniHandleOwnership)

Handle 속성을 설정합니다.

(다음에서 상속됨 Object)
ToArray<T>()

클래스는 AudioFormat 여러 오디오 형식 및 채널 구성 상수에 액세스하는 데 사용됩니다.

(다음에서 상속됨 Object)
ToString()

개체의 문자열 표현을 반환합니다.

(다음에서 상속됨 Object)
UnregisterFromRuntime()

클래스는 AudioFormat 여러 오디오 형식 및 채널 구성 상수에 액세스하는 데 사용됩니다.

(다음에서 상속됨 Object)
Wait()

현재 스레드가 깨어날 때까지 대기하게 합니다( 일반적으로 <알림을 받><거나 <>중단/>em>)합니다<.

(다음에서 상속됨 Object)
Wait(Int64)

현재 스레드가 깨어날 때까지 대기하게 합니다. 일반적으로 <>알림을 받<거나 <중단</>내보내>>거나 일정량의 실시간이 경과할 때까지 대기합니다.

(다음에서 상속됨 Object)
Wait(Int64, Int32)

현재 스레드가 깨어날 때까지 대기하게 합니다. 일반적으로 <>알림을 받<거나 <중단</>내보내>>거나 일정량의 실시간이 경과할 때까지 대기합니다.

(다음에서 상속됨 Object)
WriteToParcel(Parcel, ParcelableWriteFlags)

클래스는 AudioFormat 여러 오디오 형식 및 채널 구성 상수에 액세스하는 데 사용됩니다.

명시적 인터페이스 구현

IJavaPeerable.Disposed()

클래스는 AudioFormat 여러 오디오 형식 및 채널 구성 상수에 액세스하는 데 사용됩니다.

(다음에서 상속됨 Object)
IJavaPeerable.DisposeUnlessReferenced()

클래스는 AudioFormat 여러 오디오 형식 및 채널 구성 상수에 액세스하는 데 사용됩니다.

(다음에서 상속됨 Object)
IJavaPeerable.Finalized()

클래스는 AudioFormat 여러 오디오 형식 및 채널 구성 상수에 액세스하는 데 사용됩니다.

(다음에서 상속됨 Object)
IJavaPeerable.JniManagedPeerState

클래스는 AudioFormat 여러 오디오 형식 및 채널 구성 상수에 액세스하는 데 사용됩니다.

(다음에서 상속됨 Object)
IJavaPeerable.SetJniIdentityHashCode(Int32)

클래스는 AudioFormat 여러 오디오 형식 및 채널 구성 상수에 액세스하는 데 사용됩니다.

(다음에서 상속됨 Object)
IJavaPeerable.SetJniManagedPeerState(JniManagedPeerStates)

클래스는 AudioFormat 여러 오디오 형식 및 채널 구성 상수에 액세스하는 데 사용됩니다.

(다음에서 상속됨 Object)
IJavaPeerable.SetPeerReference(JniObjectReference)

클래스는 AudioFormat 여러 오디오 형식 및 채널 구성 상수에 액세스하는 데 사용됩니다.

(다음에서 상속됨 Object)

확장 메서드

JavaCast<TResult>(IJavaObject)

Android 런타임 확인 형식 변환을 수행합니다.

JavaCast<TResult>(IJavaObject)

클래스는 AudioFormat 여러 오디오 형식 및 채널 구성 상수에 액세스하는 데 사용됩니다.

GetJniTypeName(IJavaPeerable)

클래스는 AudioFormat 여러 오디오 형식 및 채널 구성 상수에 액세스하는 데 사용됩니다.

적용 대상