"GPT-4O"的搜索结果
今天
00:30

ZetaChain 推出 Anuma:注重隐私的 AI 聚合平台

Gate 新闻消息,4月28日——ZetaChain 团队已正式推出 Anuma,这是一款注重隐私的 AI 聚合平台,可让用户通过单一界面访问多个 AI 模型——包括 GPT、Claude、Gemini、Grok、DeepSeek、Kimi 和 Qwen。 Anuma 具备本地隐私存储,多模型协作,以及在不同模型之间提供统一的上下文记忆系统。该平台的 Web 界面现已开放使用。
展开
06:31

DeepSeek 将 V4-Pro 价格下调75%,将 API 缓存成本削减至原来的十分之一

Gate News 消息,4月27日——DeepSeek宣布对其面向开发者的新 V4-Pro 模型提供75%的折扣,并将其 API 产品线中输入缓存命中价格下调至此前水平的十分之一。 V4 模型于4月25日发布,提供 Pro 和 Flash 版本,已针对华为的 Ascend 处理器进行了优化。DeepSeek 表示,V4-Pro 在世界知识基准测试中优于其他开源模型,并仅次于谷歌的闭源 Gemini-Pro-3.1。V4 系列专为 AI 代理而设计,用于处理超出聊天机器人能力范围的复杂任务。 V4-Pro API 成本已经低于主要的西方竞争对手,定价为每百万输出 tokens 3.48 美元,而 对应 OpenAI 的 GPT-4.5。V4-Flash 的定价为每百万输入 tokens 0.14 美元、每百万输出 tokens 0.28 美元,可能使诸如在单次请求中审阅完整代码库或监管文件等具备成本效益的应用成为可能。
展开
05:17

GPT-5.5 重返编程前沿,但 OpenAI 在输给 Opus 4.7 后更换了基准测试

Gate News 消息,4 月 27 日——SemiAnalysis,一家半导体与 AI 分析公司,发布了包含 GPT-5.5、Claude Opus 4.7 和 DeepSeek V4 在内的代码助手对比基准测试。关键发现:GPT-5.5 标志着 OpenAI 在六个月后首次重返编程模型前沿,随后 SemiAnalysis 工程师在 Codex 和 Claude Code 之间交替使用;此前他们几乎完全依赖 Claude。GPT-5.5 基于代号为 "Spud" 的新预训练方法,代表 OpenAI 自 GPT-4.5 以来首次扩展预训练规模,置换
展开
02:06

Telegram 推出无需代码的 AI 机器人构建工具

Gate News 消息,4月27日——Telegram 已推出一款无需代码的 AI 机器人构建工具,使用户无需编程知识即可创建并自定义聊天机器人。用户可以与 LobsterFather 机器人互动以获取 API 密钥,然后将其集成到诸如 Telewer、GPTBots 或 Lazy AI 等平台中,通过点击式选项配置机器人的行为和功能。 该工具支持多种 AI 模型,包括 GPT 和 Llama。用户可以选择自己偏好的模型,并自定义机器人的对话风格与功能。该平台支持创建“主机器人(Master Bot)”,可管理并分发任务给子机器人,使其适用于处理多个聊天群组或客户咨询场景。 该功能集成 Telegram Business,使机器人能够作为自主助理运行。机器人可在 24/7 全天候欢迎新成员,过滤垃圾信息,并回答常见问题,帮助社群保持有序并快速响应。 Telegram 强调,用户在使用这些集成时应注意第三方数据安全风险,因为机器人数据可能会被外部平台处理。
展开
05:21

DeepSeek V4 引发美国争论:智库质疑芯片使用,Replit CEO 为开放创新辩护

Gate News 消息,4 月 24 日——围绕 DeepSeek V4 的技术能力与合规性,美国爆发了一场争论。Chris McGuire 是外交关系委员会 (CFR) 的资深研究员,曾任白宫国家安全委员会以及国防部官员,发表了分析文章,称 V4 并未改变美中 AI 的竞争格局。根据 McGuire 的说法,DeepSeek 自己的 V4 报告承认,其推理能力比前沿模型大约落后 3 到 6 个月,并以发布于六个月前的 GPT-5.2 与 Gemini 3.0 Pro 作为基准。 McGuire 提出担忧:尽管 V4 报告披露了在推理阶段对 NVIDIA GPU 以及华为 Ascend NPU 的适配,但并未公开说明开发过程中所使用的 GPU 型号或训练成本。他质疑这种沉默是否意味着使用了受出口管制的 NVIDIA Blackwell 芯片,并指出 V3 先前曾声称使用了 2,000 张 H800 GPU,成本为 5.57 million 美元。DeepSeek 已否认使用 Blackwell,表示该模型是在 NVIDIA H800 与华为 Ascend 910C 处理器上训练的。 Replit 首席执行官 Amjad Masad 反驳了 McGuire 的分析,认为中国科学家正在公开分享真正的 AI 突破,而美国政策制定者与游说者则放大“China distillation”(中国蒸馏)的担忧。Masad 强调了 DeepSeek 在官方声明中披露的架构创新,包括 DeepSeek 稀疏注意力 的按 token 级别注意力压缩,以及针对长上下文计算的显著效率提升。他指出,V4-Pro 在 1M 上下文长度下,展现出比 V3.2 更低得多的按 token 推理计算量与 KV 缓存需求,并强调这些架构进展与训练数据蒸馏无关,所有研究人员——包括美国的实验室——都可以从开源发展中获益。
展开