나에게 필요한 오디오 인터페이스 - Part1
현재 "Audio Interface" 는 많은 제품이 시장에 출시 되어 있다.
그리고 제품마다 특, 장점을 모두 기억하는 것도 쉽지 않을 만큼
사용자 마다 느끼는 부분은 정말 다양하다.
어떤 제품이 더 좋다, 나쁘다를 따지며
언제나 갑론을박 토론의 도마에 올라와 있는 제품.
오늘은 이 오디오 인터페이스에 대해서 한번 심도 깊이 알아보자.
※ 일부 내용과 그림은 토만 사의 원문글을 인용하여 만들었습니다.
https://www.thomann.de/gb/onlineexpert_topic_audio_interfaces.html
https://hub.yamaha.com/the-history-of-the-daw/
1. 오디오 인터페이스의 시작
초장기 개인용 컴퓨터가 나올 무렵
오디오 신호를 재생하고 처리하는 별도의 장치없이
시장에서 판매되었다.
그러다 1982년 Commodore 64(8비트 가정용 컴퓨터)는
소리를 생성하는 기능을 갖추었고 여기에 포함된
Sound Interface Device (SID 칩) 는 Robert Yannes가 개발하였다.
이는 3개의 발진기를 장착한 신디사이저 같은 존재였다.
(참고로 Robert Yannes는 Ensoniq사의 신디사이저 개발에도 참여하였다.)
이렇게 출발한 SID칩 은 오디오 인터페이스의 출발점이라고 볼 수 있다.
이후 IBM 개인용 컴퓨터는 점점 더 대중화 되어 다양한 발전 가능성을 보여주었고
1987년 비로소 "AdLib Music Synthesizer Card (ALMSC)" 와
같은 제품이 시장에 등장했다.
이 당시 "애드립(AdLib)" 카드는 DX7 신디사이저를 기반으로 하는
YAMAHA의 OLP 칩이 들어가 있었고 당시에
혁신적인 사운드를 만들어 주는 제품으로 널리 사용되었다.
게임 업계는 "AdLib" 표준을 사용하여 모든 게임에 음악 효과를 넣을 수 있게 되었지만
여전히 오디오 신호를 녹음하거나 재생하는 것은 불가능했다.
하지만
출처 : https://www.tribuneindia.com/
Creatvie Lab 사의 Sound Blaster가 시장에 나오게 되면서
모든 것이 변화 되었다.
AdLib과 호환 되었지만 디지털화 된 오디오 신호를
재생 할 수 있도록 해주었기에(8bit PCM mono 지원)
게임의 사운드가 한 단계 업그레이드 되었고,
조이스틱 연결을 위한 커넥터는
MIDI 케이블과 연결 가능한 옵션 포트를 사용했으므로
MIDI 신호 전송이 가능한 마스터 키보드를 연결하여
YAMAHA의 OPL 칩 사운드를 재생하고 제어 할 수 있게 되었다.
즉.
처음으로 사용자 의도에 따라
컴퓨터 내에서 원하는 사운드로 연주가 가능해졌다.
이후의 Sound Blaster 카드는 16bit PCM Stereo 지원,
CD 드라이브와 직접 연결 후 음악 재생, 웨이브 테이블 합성(신디사이저) 및
디지털 녹음(Analog to Digital Converting Process) 을 지원하기 시작했고
컴퓨터를 활용한 음악 제작 환경이 만들어지는데 큰 역할을 했다.
그러나
Creative Labs 사는 음악 시장에 대한 입지보다는
게임사운드에 더 집중하며 기업을 확장했다.
하지만 음향에 관심이 있던 많은 사람들은 Creative Labs 사의
사운드 카드를 사용하면서 디지털 방식으로 녹음이나 오디오 데이터를
다루는 것에 더 많은 관심을 가지게 되었다.
이후 Soundscape 및 Digidesign 같은 회사가 등장하고
하드웨어 DSP 개념으로 "Audio Interface" 제품을 만들어서
디지털 오디오 시장의 실질적인 사용자층을 만들게 되었다.
(물론 DAW 소프트웨어도 같이 개발했다.)
여기에 Steinberg 는 1996~7년 Cubase VST를 출시하면서
VST(Virtual Studio Technology) 개념과
ASIO(Audio System Input, Output) 드라이버를 배포하여
녹음, 재생 및 프로그램을 활용해 편집하는 음악 스튜디오 업무를
컴퓨터가 모두 할 수 있도록 시장을 다시 한 번 바꾸었다.
참고로 필자도 1998년(고등학생 시절) 당시 YAMAHA의 DS2416 같은
제품 광고를 보면서 이제 본격적으로 사운드카드(오디오 인터페이스) 시장에
다양한 회사들이 제품을 출시 할 것이라 예상하던 시절도 있었다.
(이후 지금까지 정말 많은 제품들이 출시되었다.)
출처 : http://www.oldschooldaw.com/
2. 오디오 인터페이스 개념정의
과거에는 분명 사운드 칩, 사운드 카드라고 불렸지만 현재에서는
오디오 인터페이스라는 말을 더 많이 사용한다.
그 근본적인 이유는 과거 사운드 카드에는 FM 및 웨이브 테이블 칩이 사용되었고
지금의 오디오 인터페이스에서는 이 칩들을 찾아보기가 쉽지 않다.
2020년 현재
컴퓨터 OS에서 기본적인 소리 합성을 위한 작업 과정을
생략해도 될 만큼 발전했고, 이미 지원하고 있기 때문에
과거 사운드 카드에 필수 조건이었던 이 부분이 이제는 큰 의미가 없어진 상태이다.
또한 대부분의 컴퓨터 메인보드에 납득할 수준의
사운드 칩이 포함되어 나오고 있는 상황이라 더더욱 그렇기도 하다.
그래서 더 정확히는
컴퓨터가 이해 할 수 있는 2진법 언어로 바꾸는 과정
ADC(Analog to Digital Converting Process) 와
2진법 언어를 다시 아날로그 전기 신호로 바꾸어 주는 과정
DAC(Digital to Analog Converting Process) 를
더욱 정교하고 좋은 품질로 할 수 있도록 설계된 제품을
우리는 오디오 인터페이스라고 볼 수 있다.
여기에 컴퓨터 CPU가 OS를 통해 소리를 통제하는 관리 센터를 두고
그곳의 명령으로 사운드 칩이 행동하던 과정을 지켜보면
생각보다 많은 지연시간(latency)이 생긴다.
이런 레이턴시를 줄이기 위한 해결법으로 제시한 것 중 하나가
바로 ASIO드라이버 혹은 CoreAudio(Mac OS 해당) 같은 개념인데
쉽게 이야기 하면 CPU 명령을 최대한 다른 영역을 거치지 않고
독립적으로 움직일 수 있는 길을 제공해 준다고 볼 수 있다.
바로 이런 ASIO 드라이버 & CoreAudio를 정확히 지원하도록
설계된 제품이 바로 오디오 인터페이스라고 볼 수 있다.
ADC 과정은 크게 3가지 영역으로 나누어서 생각해 볼 수 있다.
우선 진동 에너지를 마이크를 통해 전기 신호로 변환된 이후
표본화(Sample)와 양자화(Quantization) 과정을 거쳐
우리가 DAW에서 오디오 파형을 확대하여 볼 때 확인 가능한
파형의 모습으로 변화를 시킨다.
그리고 가로축(Sampling), 세로축(Quantization) 값에 따라서 정해진 수치를
2진법 언어로 변환시키는 부호화(Coding) 작업을 거쳐
컴퓨터의 하드 디스크에 저장이 된다.
출처 : https://www.thomann.de/
물론 이것은 초당으로 계산해야 되는 과정으로 보기 때문에
<1초 동안 표본화 작업 = Sampling Rate = 전기 신호를 얼마나 잘게 잘라내는가?>
<1초 동안 양자화 작업 = Bit Depth = 샘플링에 의해서 잘려진 값을 얼마나 잘 분석 했는가?>
로 이해해도 크게 문제는 없다.
높은 Sampling Rate 값은 그만큼 원음에 가까운 형태로 표현한 것이고
높은 Bit Depth 값은 디지털의 가장 큰 레벨(0 dBFS가 가장 큰 레벨)
이후의 표현은 힘들지만 그만큼 레벨이 작은 샘플링된 신호까지 모두 세밀하게 표현한다.
이럴 때 같이 언급되는 부분은 <SNR = Signal to Noise Ratio>값이며,
SNR이 높으면 확실히 음질이 우수한 편이고 낮으면 나쁘다 정도로 인식하고 있지만
이와 함께 같이 언급해야 되는 부분은 <EIN = Equivalent Input Noise> 이다.
가장 낮은 자체 잡음 값이 얼마인지를 보여주는 수치로
마이크 프리앰프가 붙어 있는 경우하면 EIN 수치도 꼭 눈여겨 볼 필요가 있다.
예를 들어서 -120dB 의 EIN 값을 가지고 있지만
실제로 마이크 프리앰프의 최대 Gain 값이 70dB 라고 한다면
최대 증폭시 EIN 값은 -50dB 수준으로 변경되며
기기 잡음이 귀로 들린다는 것을 의미한다.
(상당히 거슬리는 Hiss 노이즈로 인식될 것이다.)
그리고 여기에 또 하나 중요한 부분은 Clock의 안정성과 정확도 이다.
위에서 언급한 Sampling 과정과 Quantization은 결국 정해진 시간 안에서
순간적으로 정교하게 동일한 측정을 요구한다.
이런 과정에서 시간에 대한 정보는 매우 중요한 포인트이고
Clock이 불안정한 ADC 의 경우는 전기 신호를 상당히 왜곡 시켜
변화된다는 점을 기억 할 필요가 있다.
또한 Clock은 디지털 기기를 서로 연결하는 과정에서도 매우 중요한 요소이다.
출처 : https://www.soundonsound.com/
<연결할 디지털 기기가 다양할 경우는 별도의 Word Clock Generator를 사용하기도 한다.>
결과적으로 ADC(DAC 과정은 ADC 과정을 반대로 한 것과 유사하다.)
과정이 과거 사운드 카드에서 하던 일 보다
더 수준 높은 처리를 요구하는 사용자를 위해서 개발된 제품이
오디오 인터페이스라고 볼 수 있다.
3. 오디오 인터페이스의 통신방법
우선 컴퓨터와 어떤 형태로 통신을 하는지 구분한 것이 가장 중요하다.
2020년 현재 통상적으로 가장 많이 사용하는 방식은
USB 2.0~3.0 / USB 3.1 or C / Thunderbolt 정도로 볼 수 있다.
출처 : https://www.thomann.de/
특이사항 으로는 Thunderbolt 경우 2.0 버전 까지는 그림과 같은 연결 단자를 사용했지만
3.0 버전에서는 USB 3.1 ~ C타입 과 같은 단자로 통일 시켰다.
물론 연결 포트만 동일하며 실제 성능과 확장성은 전혀 다른 개념이니 오해는 금물.
출처 : 사운드기어
과거에는 PCI 카드 형태로 컴퓨터 메인보드에 바로 직결하는 제품도 있었고
(아직도 과거 제품들은 계속 판매되고 있다.)
아직 업그레이드 못한 분들의 경우는 Firewire(IEEE - 1394)라는
연결단자를 가진 제품을 사용하는 경우도 있다.
(Thunderbolt 가 나온 이후 버려진 규격)
그리고 과거 노트북에서 사용하던
CardBus / ExpressCrad / PCMCIA
(Personal Computer Memory Card International Association)는
이제 시장에서 거의 사용하지 않는다고 봐도 무방하다.
우리는 여기서 한가지만큼은 확실히 알고 가야 한다.
연결 단자에 따라서 데이터를 주고받는 과정에 최대 혀용 값이 존재 한다는 것을...
위의 표는 오디오 데이터를 전송 과정에서 최대 허용용량(이론상 허용치)
MB(메가 바이트 Mega Byte / 컴퓨터의 데이터 저장단위)를 기준으로 제시한 차트이며
일반적으로 통신에 관해서 언급할 때 자주 등장하는 용어인 bit 는 컴퓨터가 처리 할 수 있는
언어 상태를 의미한다. 보편적으로는 8bit 가 1Byte 라고 보면 된다.
여기서 혼돈이 보통 생기기 때문에 조금만 더 설명을 이어가면
FireWire 400 - up to 400Mbit/s (50MByte/s)
FireWire 800 (1394b) up to 800Mbit/s (100MByte/s)
USB 1.1 up to 12Mbit/s (1.5MByte/s)
USB 2.0 - up to 480Mbit/s (60MByte/s)
Thunderbolt 1.0 up to 10Gbit/s (1250MByte/s)
Thunderbolt 2.0 up tp 20Gbit/s (2500Mbyte/s)
Thunderbolt 3.0 up to 40Gbit/s (5000MByte/s)
PCI (32bit/33Mhz) - 1066Mbit/s (133MByte/s)
PCI-X (64bit/133MHz) - 8528Mbit/s (1066MByte/s)
PCIe x1 (1 Lane) - 2000Mbit/s (250MByte/s)
PCIe x16 (16 Lanes) - 32,000Mbit/s (4000MByte/s)
단위를 정확히 볼 필요가 있다. Mbit 인지 MB 인지.
예를 들어서 스테레오 44kHz, 16bit Wav 파일(PCM 포맷)을 전송하려면
오디오 인터페이스와 통신을 하는 과정에서 최대 0.17MB 의 데이터를 주고받아야 하는데
만일 주고받는 데이터가 20개가 된 다면 초당 3.4MB 정도의 통신 선로가 필요한 것이다.
그렇다면 USB 1.1 타입의 연결 방식으로는 해결이 힘들다는 이야기가 된다.
위의 내용을 제대로 봤다면
오디오 인터페이스 통신을 위한 연결 규격에 대해 완전히 이해했을 것이다.
결론적으로 현재 사용 하는 오디오 인터페이스가 USB 1.1 연결만 아니면 된다는 것이다.
4. 오디오 인터페이스의 기능 및 편의성
이것은 작곡가를 비롯해서 편곡, 엔지니어 등등 오디오를 다루어야 하는
많은 사람들에게 매우 중요한 부분이다.
아래 내용을 참고해보자.
생각해야 될 부분이 너무나 많다.
- 컴퓨터와 연결 방식은 어떤 통신 규격인가?
- 인풋의 개수(ADC 채널수)는?
- 아웃의 개수(DAC 채널수)는?
- 라인 신호만 처리하는가?
- 언밸런스 신호, 밸런스 신호 모두 처리가 가능한가?(동시 지원 가능한가?)
- 마이크 신호도 처리가 가능한가?(프리앰프가 붙어있는가?)
- 디지털 입출력은 있는가? 있다면 어떤 연결 방식과 몇 채널 지원 가능한가?
- 외부 디지털 장비와 연결은 용이한가?(어떤 디지털 규격을 지원하는가?)
- 별도의 Clock 신호를 주고받을 수 있는 연결 단자가 있는가?
- 헤드폰 출력 단자는 있는가? 있다면 헤드폰 출력이 몇 가지이고 임피던스 대응은 어떠한가?
- 아날로그 볼륨 컨트롤 방식인가? 혹은 디지털 볼륨 컨트롤 방식인가?
- 미디 신호를 입출력 할 수 있는 단자는 있는가?
- 기타 앰프와 같은 높은 임피던스를 가진 기기와 연결할 수 있는 라인 아웃 채널은 있는가?
- Vinyl Record 판을 재생하는 기기와 연결이 가능한가?
- 녹음과정에 편의성을 위해서 DSP 가 붙어 있고 실시간 이펙팅 처리가 가능한가?
여기에 많은 사용자들이 각 제품에 대한 ADC와 DAC 품질에 대해서도
논하기 시작하면 정말 끝도 없는 논쟁과 함께
몇시간 동안이야기 꽃을 피울 수가 있다.
하지만 여기서 알 수 있는 사실은
오디오 인터페이스가 지원하는 다양한 편의 기능 덕분에
우리는 공부해야 할 부분이 정말 많이 있다는 점이다.
그리고 값 비싼 제품일수록
위의 고민 사항에서 대부분 좋은 방향으로 제작 된 제품이 많고
다양한 영역의 기능을 지원한다는 점이다.
그래서 실제로 스피커 한조에 연결해서 사용할 제품을
구매하는 과정에서 다양한 채널이 구비된 덩치큰 1Rack 크기의
제품을 사용하게 되는 상황은 바로 이러한 이유 때문이다.
우선 꼭 알고 있어야 되는 상식적인 부분 한 가지만 살펴보자.
5. 언밸러스 / 밸런스가 무엇인가?
출처 : https://www.jaben.co.th/
전기 신호로 변환된 소리는 사실
그라운드(Ground)와 시그널 라인만 있으면 아무런 문제없이 전송이 된다.
하지만 라디오 안테나가 무엇인가?
그냥 전선을 길게 끌어다가 라디오 수신이 잘 되는 곳에 놓으면 알아서 잘 잡힌다.
이런 상황은 결국 오디오 신호를 전송하는 라인도 똑같은 개념으로 작용된다고 봐도 무방하다.
보통 RF(Radio Frequency) 노이즈라고 부르는데 이런 형태의 노이즈부터
(기타 앰프에서 갑자기 라디오 방송이 들리는 상황)
Hum 과 같은 ‘웅~~~~’ 거리는 전기 노이즈(교류 주파수에 맞춰 발생된)도
우리의 주변에서 흔히 겪을 수 있는 문제 이다.
이것은 언밸런스 라인 때문에 전송과정에서 생기는 것으로
시그널 라인에 노이즈가 같이 붙어서 전달 받은 기기에서
그 노이즈 까지 같이 들려주는 상황이다.
출처 : https://www.sweetwater.com/
< TS(왼쪽), RCA(오른쪽) 커넥터 >
언밸런스 연결과정에서 가장 자주 사용하는 연결 단자의 모양은
TS 커넥터 흔히 55단자 라고 이야기 하지만 정확한 명칭은
1/4 인치 TS 단자라고 하는 것이 좋다.
오른쪽에 2줄로 보이는 이어폰 단자처럼 보이는 부분 역시 정확하게는
1/8 인치 TRS 단자라고 이야기 해야 한다.
그렇다면 1줄만 그어져있는 TS 단자를 모노,
2줄 그어져있는 TRS 단자를 스테레오 이렇게 부르는 것은 맞는 표현인가?
반은 맞고 반은 틀렸다.
정확히 TRS 연결 단자라고 하는 것이 알맞은 표현법이다.
그 이유는 스테레오 모노 개념으로 커넥터를 구분하는 순간
언밸런스, 밸런스에 대해서 자칫 오해가 생기기 때문이다.
그러면 위의 두가지 커넥터는 주로 언밸런스에서만 사용하는가?
그렇다.
그리고 언밸런스 라인을 사용 한다면
보통 Nominal line Level 값도 -10dBV를 기준으로 한다.
신호의 원래 형태를 최대한 유지한 상태로 전송되는 형태지만
문제는 노이즈에 취약하고 케이블 길이가 늘어나면 언제나 문제가 생길 수 있는
연결 방법이라는 것은 이제 이해하고 있어야 한다.
그래서 과학자들이 생각해낸 노이즈 제거 방법은 바로
밸런스 전송방법이다.
출처 : https://www.jaben.co.th/
다시 이 그림을 잘 보면
밸런스 전송은 시그널 전송 라인을 하나 복사해서 위상을 뒤집었다.
신호가 출발하는 순간 그렇게 배치를 시켜서 전송하고
신호를 받는 쪽에서는 두 개의 시그널을 다시 합친다.
물론 이때 뒤집혀 있던 위상을 원래 상태로 바꿔 준다.
그러면 어떤 일이 생길까?
언밸런스 전송과 같은 개념으로
노이즈는 신호 라인을 붙어서 흘러가지만
역상(위상을 뒤집은 신호)관계에 있던 신호 라인에도
동일하게 노이즈가 붙어서 흘러간다.
하지만 신호가 최종적으로 도착되는 지점에서는
역상된 신호가 정상으로 바뀌니 당연히 노이즈는 역상관계가 된다.
음향에서 2개의 동일한 신호가 시간과 레벨이 동일할 때 합쳐지면
A + A = A(6.02dB 증가)가 되지만
하나가 역상인 상태에서는 A +( -A) = 소리 없음 상태가 된다.
즉
노이즈는 서로 역상관계가 되었기 때문에 완전히 제거가 된다.
< XLR 암,수(좌측), 1/4인치 TRS(오른쪽) >
이럴 때 보통 2개의 커넥터를 주로 사용하는데
왼쪽에 보이는 XLR 이 대표적인 밸런스 시그널 전송에 사용하는 커넥터이며
이전에 잠깐 보았던 2줄짜리 모노, 스테레오 커넥터로 구분하면 안 된다고 지적했던
TRS 커넥터도 역시 밸런스 시그널 전송을 위해서 사용한다.
그리고 밸런스 시그널 전송은 Nominal line Level 값이 +4dBu를 기준으로 한다.
얼핏 -10dBV 랑 많이 다른 것인가? 라고 생각해 볼 수 있는데
실제로 DAW 상에서 우리가 흔히 보는 레벨미터 상
약 13dB 정도의 차이를 보인다.
(+4dBu가 -10dBV보다 큰 전기신호이다.)
이제 언밸런스 전송과 밸런스 전송이 어떻게 다른지 이해했으며
여기에 일반적으로 사용되는 커넥터의 명칭도 기억을 했으리라 생각한다.
그렇다면 이제 간단하게 하나 더 짚어보자.
출처 : http://compare.focusrite.com/
< Focusrite Scarlett 2i2 - 3세대 >
해당 제품은 다행히도 라인 아웃 커넥터가 TRS, TS 둘다 지원한다.
출처 : https://www.krkmusic.com/
Focusrite Scarlett 2i2 와 해당 스피커를 연결한다면
어떤 케이블과 커넥터를 사용해야 되는가?
정답은 TRS(오디오 인터페이스) 에서 TRS(스피커 앰프) 로
연결하거나 XLR 로 연결하면 된다.
즉 한쪽은 TRS 다른 한쪽은 TRS 나 XLR(수) 형태로
제작 혹은 구입을 하면 된다.
< The Hercules - DJMonitor 42 스피커(4인치 유닛 제품) >
이 제품과 Focusrite Scarlett 2i2를 연결한다면
그때도 위와 동일한 케이블을 사용하면 될까?
당연히 정답은 No.
DJMonitor 42 는 입력단자가 RCA 커넥터만 존재 한다.
출처 :https://www.hercules.com/
< The Hercules - DJMonitor 42 스피커의 뒷면 >
RCA 커넥터만 존재하기 때문에 오디오 인터페이스와 연결 하는 상황에서
오디오 인터페이스 출력이 언밸런스를 지원하지 못하면
외부 연결 도우미(시그널을 언밸런스로 바꿔주는 장치) 없이는
제대로 된 연결이 사실상 불가능하다.
이유는 위에서도 언급했지만 Nominal line Level 값의 기준이 다르기 때문에
밸런스 시그널을 언밸런스 입력 단자에 연결하면 들어가는 순간
소리가 왜곡될 확률이 매우 높다.
하지만 Focusrite Scarlett 2i2 3세대 제품 사용자 설명서에
분명 TS 커넥터를 이용한 언밸런스 연결도 지원한다고 나와 있다.
그렇기 때문에 DJMonitor 42와 연결 하는 과정에서는
TS 커넥터와 RCA 커넥터로 구성된 케이블을 구입하면 된다.
지금까지 간단하게 밸런스 언밸런스에 대해서 알아보며
제품 연결 과정에서 어떤 케이블을 선택해야 되는지 간략하게 알아보았다.
오디오 인터페이스에 대해서 이야기 하려면 정말 끝이 없지만
오늘은 여기서 마무리 하고
Part.2에서 조금 더 구체적으로 알아보자.
enSound 박문수 Master.




-
Mixing 과정에서 Dynamic Processing은 왜 필요한가? - Part.2 Compressor
-
Mixing 과정에서 Dynamic Processing은 왜 필요한가? - Part.1 equalizer
-
소리를 분석하고 구분하기 위해서 꼭 알아야 하는 것은?
-
나에게 필요한 오디오 인터페이스 - Part2
-
나에게 필요한 오디오 인터페이스 - Part1
-
홈 레코딩의 허와 실
-
미디어를 통한 소리에 대한 이해 및 녹음과정
-
모니터링 스피커, 비싼게 좋을까?
-
음악제작을 위한 DAW 및 컴퓨터의 선택. Mac or PC ?
-
음악 제작 환경은 더 이상 빠르게 발전하지 않는가?