딥시크 '오픈AI, 구글, 앤트로픽의 기술적 우위는 없다, 그들이 갖춘 건 컴퓨팅 뿐'작년 12월결론 및 한계, 그리고 나아갈 길 이번 연구를 통해 우리는 'DeepSeek-V3.2'를 세상에 내놓았습니다. 이 프레임워크는 연산 효율성과 고도의 추론 능력, 그 사이에 존재하던 깊은 간극을 효과적으로 이어주는 가교 역할을 합니다. 우리는 DSA 기술을 활용하여, 긴 문맥을 처리하는 성능을 조금도 희생하지 않으면서도 치명적인 연산 복잡성 문제를 해결해냈습니다. 또한 연산 자원을 아낌없이 투입했을 때, DeepSeek-V3.2는 각종 추론 능력 평가에서 그 강력하다는 GPT-5와 어깨를 나란히 하는 성과를 보여주었습니다. 마지막으로, 대규모 에이전트 작업 합성 파이프라인을 통합함으로써 도구 활용 능력을 비약적으로 끌어올렸습니다. 이는 오픈 소스 LLM을 기반으로 한, 견고하고 범용적인 AI 에이전트가 활약할 새로운 지평을 연 것입니다. 더 나아가, 고성능 연산에 특화된 모델인 'DeepSeek-V3.2-Speciale'은 국제수학올림피아드(IMO)와 국제정보올림피아드(IOI)에서 금메달을 획득하며 그 실력을 입증했고, 오픈 소스 LLM 역사에 길이 남을 이정표를 세웠습니다. 하지만 이러한 눈부신 성과 뒤에는 분명한 한계도 존재합니다. 우리는 'Gemini-3.0-Pro'와 같은 최정상급 비공개(Closed-source) 모델들과 비교했을 때, 아직 부족한 점이 있음을 겸허히 인정합니다. 첫째, 총 학습 연산량(FLOPs)이 상대적으로 적은 탓에, DeepSeek-V3.2가 보유한 세상에 대한 지식의 폭은 선두를 달리는 독점 모델들에 비해 여전히 좁은 편입니다. 우리는 향후 버전에서 사전 학습(Pre-training)에 투입되는 연산 규모를 대폭 늘려, 이러한 지식의 격차를 메워 나갈 계획입니다. 둘째, 토큰 효율성 또한 여전히 해결해야 할 과제로 남아 있습니다. DeepSeek-V3.2가 Gemini-3.0-Pro 수준의 결과물을 내놓기 위해서는, 통상적으로 더 긴 생성 과정, 즉 더 많은 토큰을 소모해야만 합니다. 앞으로의 연구는 모델이 수행하는 추론 과정의 '지능 밀도'를 최적화하여, 더 적은 과정으로도 훌륭한 답을 낼 수 있도록 효율성을 높이는 데 집중될 것입니다. 셋째, 복잡한 과제를 해결하는 능력은 아직 최상위 모델들에 미치지 못합니다. 이러한 부족함은 우리가 기반 모델(Foundation model)과 사후 학습(Post-training) 기법을 더욱 정교하게 다듬어야 할 강력한 동기가 되어주고 있습니다. *DEEPSEEK 입장에서의 유리한 측면 : 독자적인 DSA(Dynamic Sparse Attention) 기술로 연산 효율성을 극대화하여, 오픈 모델임에도 불구하고 GPT-5 수준의 극한 추론 능력(IMO/IOI 금메달)을 확보함으로써 기술적 가성비를 입증함. *DEEPSEEK 입장에서의 불리한 측면 : 절대적인 학습 연산량(Training FLOPs)의 열세로 인해 경쟁사 대비 '지식의 범용성'이 부족하며, 동일한 품질을 내기 위해 더 많은 연산(토큰)을 소모해야 하는 낮은 '지능 밀도(Intelligence Density)' 문제를 안고 있음.
구글은 외계인들이 맞는듯작년 12월분명히 1년전만 해도 openai랑 마소진영이 압도적인 1등이었는데 어느샌가 따라잡은것(2.5)도 대단한 느낌인데 gemini 3.0으로 평정을 해버리네요
중국 상해 가보신분 계신가유? ㄷㄷ작년 12월구글번역기로 어케어케 하면 될것 같긴 한디 근디 여름휴가때 갈것 같은데 괜찮을려나 ㄷㄷ
한동훈 윤석열 같이 나온 사진이 많군요.작년 12월구글 검색해 보니 거의 그림자 수준으로 같이 나온 사진들이 많군요. 근데 참 눈치도 빠르고 운도 좋았지 ~ 한 몸 같은 존재들이 였는데 어찌 자르고 분리 했는지 ㄷㄷㄷㄷㄷ
도대체 텐서가 뭘까?작년 12월구글이 딥러닝이라는 신기술을 개발했고 많은 사람들이 열광했다. 기존에 AI 탐색기법을 사용했을때 정복이 불가능해 보였던 바둑분야에서, 알파고는 완전 무결한 모습을 보여주었다.
에릭 슈미트, “'중국은 배터리·로봇, 미국은 AI·자본' 미·중 기술 전쟁' (번역)작년 12월[에릭 슈미트] : 구글 전 CEO [인터뷰어] : 김병수(한국계 미국인) University of Southern California 임시 총장 [인터뷰어] : 자, 그럼 바로 본론으로 … 앤스로픽, 오픈AI, 구글의 제미나이, 마이크로소프트, 일론 머스크의 그록, 메타 등이 있죠. 여기엔 엄청난 돈이 듭니다. … [인터뷰어] : 알파폴드(AlphaFold) 이야기를 하셨는데, 구글의 데미스 허사비스 팀이 AI로 과학적 돌파구를 만드는 놀라운 일을 하고 있죠. … 다행히 구글도 경쟁력 있는 TPU v7 칩을 개발 중입니다. 이런 경쟁이 대학에 도움이 될 겁니다. … 해결책: 대학은 전력과 토지가 저렴한 지역에 거대한 데이터 센터를 짓고, 엔비디아나 구글(TPU) 등과 협력하여 칩을 확보해야만 미래 기술을 선도할 수 있음.
대사비스라 부르는 이유작년 12월사실 트랜스포머도 구글이 만들어 낸 것이고, 이미 오래 전에 래리가 알파고로 유명해진 대사비스를 데리고 갈 때부터... … 그런데, 딥마인드 인수 이후의 구글이 수면 아래에서 이런 과정을 진행하는 중에 정작 대중에 널리 알려진 것은 지피티3 이고, 더 널리 알려진 것은 4이후지만, 실은 지피티2가 공개 … 그럼에도 지피티3에서 스케일을 엄청나게 키워서 나왔을 때 까지 구글의 준비는 미흡했습니다. … 즉, AI를 제품화하는 과정으로의 이행에 있어서 오픈AI가 앞서 나가는 것에 비해 구글은 이런 부분에서의 준비는 많이 부족했었다는 것이고, 이는 아무래도 대사비스의 성향이 중요한 이유였을 … 물론 구글의 기술자 중심의 기업 문화도 한 몫을 했을 것이고, 래리가 전폭적으로 지원하는 것도 크게 역할을 했을 것으로 추정 되지만, 그럼에도 AI수장으로서 대사비스는 제 역할을 톡톡히
구글 면접에서 나온 문제랍니다작년 12월
구글 안티그래비티 이거 물건이네요.작년 12월커서 구독 바로 해지했습니다... 꼭 써보시길요.
중국의 구글 '바이두'도 AI발 감원…최대 30% 줄인다작년 12월‘중국의 구글’ 바이두(百度)가 대규모의 구조 조정에 돌입했다.
2찍들 요즘 구글 TPU 타령하네요작년 12월엔비디아 GPU 칩 26만장 왜 받았냐고 한물간 엔비디아 칩받은 정부 어쩌고 엔비디아 시대는 갔고 그걸받는게 멍청하다 이러고 주장하네요
중국 바이두 IT 인원 30% 감축작년 12월'중국판 구글'로 불리는 바이두가 연말 대규모 감원을 진행하면서 중국 IT 업계의 AI 중심 인력 재편이 가시화되고 있다.
구글 이미지가 나오게 된 사건.mp4작년 12월이 브라우저는 비디오태그를 지원하지 않습니다. 크롬을 사용 권장합니다. .
자신이 불륜으로 태어났다는 것을 알게 된 남자의 고백에 대한 레딧 반응작년 12월 영어 원문을 구글에서 알아서 한국어로 번역을 해 주는데, 같은 주제에 대한 국내 커뮤 반응과는 사뭇 다르네요.
구글에 기묘한 이야기 검색해보세요작년 12월뒤집힌 화면이 됩니다 ㄷㄷ ( 뒤집힌 세계 패러디 ㄷㄷ ) 이런식으로 구글 영화 드라마 관련 검색 이펙트 재밌네요
구글이 이미지 서비스를 시작한 계기.gif작년 12월
구글이 이미지 서비스를 시작한 계기.gif작년 12월이 브라우저는 비디오태그를 지원하지 않습니다. 크롬을 사용 권장합니다.
살벌한 구글의 당일 해고 통보 현장.jpg작년 12월노동의 유연화 쉬운해고 ㄷ
유튜브 아르헨티나에서 쫏겨 났네요..작년 12월한동안 별일없이 버티나 싶었는데 얼마전에 구글에서 메일 왔군요... 그래서 혹시나 또 우회할수 있는데 없나 싶어 알아보니....
휴.. 싱크대 물 안내려가서 십년 감수 했습니다..작년 12월구글 검색을 시작.. 1번.. 뜨거운물 (끓는물 절대 안되고 50-60도 정도의 물) 을 계속 붓는 방법.. 2번..