중국, 구글 조사 착수; 한국, 딥시크 사용 금지... 이번 주 토요일 기술 뉴스 요약의 주요 소식입니다.
중국, 구글에 대한 조사 착수.
중국은 2월 4일 구글이 반독점법을 위반했다는 혐의로 조사에 착수할 것이라고 발표했다.

중국 국가시장감독관리총국은 구글이 반독점법을 위반했다는 혐의로 조사에 착수할 것이라고 발표했습니다. 이번 발표는 중국이 특정 미국산 수입품에 새로운 관세를 부과한다고 발표한 이후 나온 것입니다.
당국은 수사에 대한 자세한 내용이나 구글이 법을 위반한 행위에 대해 추가적인 정보를 제공하지 않았습니다. 구글의 검색 엔진과 같은 제품은 이곳에서 차단되었지만, 구글은 여전히 현지 파트너와 협력하고 있습니다.
구글은 미국을 비롯한 전 세계 여러 국가에서 점점 더 엄격한 감시를 받고 있습니다. 2024년 8월, 이 검색 대기업은 미국 정부가 2020년에 제기한 소송에서 패소했습니다. 미국 정부는 구글이 시장 진입 장벽을 높여 일반 검색 시장을 독점했다고 비난했습니다.
이번 판결 이후 미국 법무부는 구글이 크롬 웹 브라우저 사업에서 철수할 것을 압박하고 있습니다. 또한 법무부는 구글이 애플이나 삼성과 같은 제3자와 독점 계약을 체결해서는 안 된다고 주장하고 있습니다.
또한 구글은 새로운 영국 법률에 따라 영국 경쟁시장청(UK Competition and Markets Authority)의 조사도 받고 있습니다.
한국, 딥시크 사용 금지.
한국 산업통상자원부는 보안 우려를 이유로 중국 스타트업 딥시크의 AI 모델에 대한 직원 접근을 일시적으로 금지한다고 발표한 가장 최근의 기관이 되었습니다.

앞서 2월 5일, 한국 정부는 각 부처와 기관에 딥시크(DeepSeek)와 챗GPT(ChatGPT)를 포함한 AI 서비스를 업무 현장에서 사용할 때 주의를 기울일 것을 지시한 바 있다.
국영기업인 수력·원자력발전공사(Hydro & Nuclear Power)도 이달 초 딥시크(DeepSeek)를 포함한 AI 서비스 사용을 금지하겠다고 발표했습니다.
마찬가지로 한국 국방부도 군사 목적으로 사용되는 컴퓨터에 대한 접근을 차단합니다.
연합뉴스에 따르면 외교부는 딥시크의 접속을 외부 네트워크에 연결된 컴퓨터로 제한했지만, 구체적인 보안 조치는 밝히지 않았다.
한국은 중국산 AI 모델에 대한 우려를 제기한 가장 최근 국가입니다. 앞서 호주와 대만(중국)은 딥시크가 안보 위협이 된다고 밝힌 바 있습니다.
2025년 1월, 이탈리아 데이터 보호 당국은 중국 스타트업이 개인정보 보호 정책과 관련된 우려 사항을 해결하지 못하자 해당 챗봇에 대한 접근을 차단했습니다.
유럽, 미국, 인도 정부 또한 DeepSeek 사용에 따른 잠재적 위험을 검토하고 있습니다.
초저가 AI 추론 모델 제작의 비밀을 공개합니다.
스탠퍼드 대학교와 워싱턴 대학교의 연구진은 인공지능 추론 모델을 만드는 데 단 50달러(약 120만 VND)만 투자했습니다.

프로그래밍 및 수학적 테스트 결과, S1(모델 이름)은 OpenAI의 o1이나 DeepSeek의 R1과 같은 현재 사용 가능한 가장 진보된 AI 추론 모델과 유사한 성능을 보이는 것으로 나타났습니다.
특히 S1은 오픈 소스 모델로, 누구나 GitHub 저장소에서 쉽게 접근할 수 있습니다.
개발팀은 기존의 기본 모델에서 시작하여 "증류"라는 과정을 통해 개선했다고 밝혔습니다. 증류란 다른 AI 모델의 응답을 학습시켜 "추론" 능력을 추출하는 과정입니다.
구체적으로, S1은 구글의 제미니 2.0 플래시 사고 실험 모델에서 추출되었습니다. 추출 과정은 버클리 대학교 과학자들이 해당 모델을 만든 방식과 유사하며, 비용은 약 450달러(약 1,130만 VND)입니다.
S1에 대한 논문은 지도 미세 조정(SFT)이라는 과정을 통해 비교적 작은 데이터셋으로 추론 모델을 정제할 수 있음을 보여줍니다. 이 과정에서 AI 모델은 데이터셋의 특정 동작을 모방하도록 명시적으로 지시받습니다.
SFT는 일반적으로 DeepSeek이 R1 모델을 학습하는 데 사용한 대규모 강화 학습 방법보다 비용이 저렴합니다.
S1은 알리바바의 Qwen AI 연구소에서 무료로 다운로드할 수 있는 소형 AI 모델을 기반으로 합니다. S1을 훈련시키기 위해 연구진은 구글의 Gemini 2.0 Flash Thinking Experimental에서 신중하게 선별한 1,000개의 질문과 각 답변의 "사고 과정"으로 구성된 데이터셋을 만들었습니다.
이 학습 과정은 16개의 엔비디아 H100 GPU를 사용하여 30분도 채 걸리지 않았지만, 여러 AI 벤치마크에서 뛰어난 결과를 보여주었습니다. 스탠포드 대학의 연구원인 니클라스 뮌니호프는 필요한 컴퓨팅 파워를 임대하는 데 드는 비용이 약 20달러에 불과했다고 밝혔습니다.
연구진은 S1이 자신의 작업을 재확인하고 "사고 시간"을 늘리도록 유도하기 위해 한 가지 방법을 사용했습니다. 예를 들어, 추론 과정에 "기다려"라는 단어를 추가하여 모델에게 기다리도록 지시했고, 이는 모델이 더 정확한 답을 도출하는 데 도움이 되었습니다.
(인조)
[광고_2]
출처: https://vietnamnet.vn/trung-quoc-dieu-tra-google-han-quoc-cam-deepseek-2369459.html






댓글 (0)