赶在农历新年前后,DeepSeek又发大模型,DeepSeek-OCR 2来了!更接近人类视觉编码逻
赶在农历新年前后,DeepSeek又发大模型,DeepSeek-OCR 2来了!更接近人类视觉编码逻辑
金融界
赶在农历新年前后,DeepSeek又发大模型,DeepSeek-OCR 2来了!
1月27日,DeepSeek团队发布《DeepSeek-OCR 2: Visual Causal Flow》论文,并开源DeepSeek-OCR 2模型,采用创新的DeepEncoder V2方法,让AI能够根据图像的含义动态重排图像的各个部分,更接近人类的视觉编码逻辑。
此次DeepSeek-OCR 2发布距离DeepSeek-OCR第一版模型问世,大约过了4个月时间。
2025年10月,DeepSeek发布了全新多模态模型DeepSeek-OCR,提出利用视觉模态压缩长文本上下文的新方法。传统OCR如同“文字扫描仪”,通过光学技术将图像中的文字提取转换为计算机和人都能理解的格式。比如,在将大量票据、证件、表单等数据电子化时,OCR发挥关键作用。但DeepSeek却反其道而行之——将文本信息“绘制”为视觉图像,再通过视觉模型实现高效理解。如此创新尝试就是为了解决大模型的核心痛点——处理长文本时面临的计算挑战。
有从业者认为其本质上是模拟人脑的遗忘机制。还有技术类专业人士认为,该模型的核心构件视觉encoder的高效解码,为光计算和量子计算在LLM领域的引入提供了明确的技术路径。
值得注意的是,自2024年底发布V3模型后,DeepSeek的下一代旗舰模型仍未发布。此前一财报道称,DeepSeek将于2月发布新一代旗舰模型DeepSeek V4,目前DeepSeek并未对此进行任何回应。
2025年,8月21日下午,DeepSeek正式发布DeepSeek-V3.1。本次升级包含以下主要变化:混合推理架构:一个模型同时支持思考模式与非思考模式;更高的思考效率:相比DeepSeek-R1-0528,DeepSeek-V3.1-Think能在更短时间内给出答案;更强的Agent能力:通过Post-Training优化,新模型在工具使用与智能体任务中的表现有较大提升。DeepSeek在其官宣“正式发布DeepSeek-V3.1”的文章提到,DeepSeek-V3.1使用了UE8M0FP8Scale的参数精度。
2025年年底,eepSeek发布了小更新V3.2版本及其长思考增强版DeepSeek-V3.2-Speciale。根据官方数据显示,在公开的推理基准测试中,DeepSeek-V3.2的推理能力达到GPT-5水平,与Gemini-3.0-Pro接近,相比 Kimi-K2-Thinking,V3.2 的输出长度大幅降低,显著减少了计算开销与用户等待时间。
2023年4月,梁文锋控制的幻方量化公告称“将集中资源和力量,全力投身人工智能技术,成立新的独立研究组织,探索AGI的本质”,随后成立深度求索(DeepSeek)公司。
2025年1月20日,DeepSeek推出大模型R1,并表示“在数学、代码、自然语言推理等任务上,性能比肩OpenAI o1正式版”,但DeepSeek-R1的推理成本仅为29.4万美元,低到惊人。即便加上约600万美元的基础模型训练开销,整体成本依然远低于国外巨头。
随后DeepSeek凭借超强的性能和极低训练成本强势崛起,在全球科技圈受到广泛关注。
1月27日,DeepSeek应用登顶苹果美国地区应用商店免费APP下载排行榜,在美区下载榜上超越了ChatGPT。同日,苹果中国区应用商店免费榜显示,DeepSeek成为中国区第一。对此,《黑神话:悟空》制作人冯骥表示DeepSeek可能是个国运级别的科技成果。
随后A股迎来DeepSeek时刻,中国资产被重估,A股算力租赁、云计算等指数春节后飙涨逾40%。新炬网络走出10连板,杭钢股份实现17天13板,路桥信息、每日互动等概念股年内最高涨幅均超300%。
至于今年DeepSeek是否会复制去年奇袭时刻,让我们拭目以待。

共有 0 条评论