'전기 먹는 하마' AI…효율 높이기 경쟁<br /><br />[앵커]<br /><br />인공지능, AI는 구동에 막대한 양의 전력을 필요로 해 소위 '전기 먹는 하마'라고도 불립니다.<br /><br />AI 붐을 뒤쫓는 주요국들은 경쟁적으로 전력 확보에 나섰는데요.<br /><br />동시에 국내 반도체 기업들은 반도체칩 효율 높이기에도 주력하고 있습니다.<br /><br />보도에 임혜준 기자입니다.<br /><br />[기자]<br /><br />구글 검색에 평균 0.3Wh의 전력이 쓰일 때 생성형 AI챗 GPT는 그보다 10배에 가까운 2.9Wh이 전력이 필요한 것으로 조사됐습니다.<br /><br />1개의 AI 모델 훈련에 필요한 전기는 일반 가정 100가구의 연간 전기 사용량을 초과한다는 추산도 있습니다.<br /><br />고성능 AI 반도체 구동을 위해선 일반 반도체보다 훨씬 많은 양의 전력을 필요로 하는 겁니다.<br /><br />생성형 AI가 '전기 먹는 하마'로 불리는 이유입니다.<br /><br />AI 개발과 유지에 필수인 데이터센터 가동을 위해선 더 막대한 양의 전력이 소비됩니다.<br /><br />국제에너지기구, IEA는 오는 2026년 데이터전력 사용량이 최대 1050TWh에 달할 것으로 내다봤습니다.<br /><br />지난 2022년 전력 사용량이 460Twh였다는 점을 고려하면 4년 만에 두 배 이상 뛰는 셈입니다.<br /><br />휘몰아치는 AI 열풍에 전력 소비량을 메울 에너지원에도 관심이 쏠리고 있습니다.<br /><br />우선 안정적인 발전이 가능한 데다 설비 확충 기간이 대체 에너지보다 빠른 천연가스 사용이 늘어나는 추세입니다.<br /><br />최근 해외보고서는 2030년 안으로 천연가스가 데이터센터 신규 전력 수요 중 절반 이상을 해결할 것이란 관측도 내놨습니다.<br /><br />그러나 화석연료 의존도가 높아지는 셈이어서 가뜩이나 전 세계적으로 차질을 빚는 탄소 감축 계획에 역행한다는 비판이 제기됩니다.<br /><br /> "지금 당장은 편리할 뿐이지 (중략) 적어도 첨단 산업에 사용되는 에너지는 풍력이나 태양광 또는 원전과 같은 무탄소 에너지로 가야 에너지 흐름에도 맞다고…."<br /><br />AI 산업에 소비되는 과도한 전력이 결국 탈탄소 시대 결정적 걸림돌로 작용하는 셈입니다.<br /><br />이를 의식한 빅테크와 국내 반도체 기업들은 앞다퉈 '저전력' 즉, 반도체칩 효율성 높이기에 나섰습니다.<br /><br />삼성전자는 네이버와 함께 추론용 AI반도체, '마하1' 개발에 박차를 가하는 중입니다.<br /><br />'마하1'은 GPU와 메모리반도체 사이 병목현상을 줄일 수 있는 구조로 설계돼 전력 효율을 끌어올린 것이 특징입니다.<br /><br />고대역폭메모리, HBM시장 선두주자로 자리매김한 SK하이닉스는 전력 효율성을 30%가량 끌어올린 차세대 제품 양산을 앞당기기로 했습니다.<br /><br /> "전력 소모를 줄인다는 것이 어떻게 보면 지금 현재 가장 큰 화두다. 지속 가능한 AI시대를 만들기 위해서는 결국 저전력의 AI칩이 필요하다…."<br /><br />온디바이스 시장 등 미래 수요에 '고효율' '저전력'을 향한 기업들의 움직임은 더욱 가속화할 것이란 전망입니다.<br /><br />연합뉴스TV 임혜준입니다. (junelim@yna.co.kr)<br /><br />[영상취재기자 : 장동우]<br /><br />#AI #반도체 #저전력 #데이터센터<br /><br />연합뉴스TV 기사문의 및 제보 : 카톡/라인 jebo23<br /><br />(끝)<br /><br />