【AI日报】2025年06月10日·周二
作者:微信文章📧Mistral 将推出其首个推理模型 Magistral,与 OpenAI 和 DeepSeek 展开竞争
在伦敦科技周的炉边谈话中,门施告诉 CNBC:Mistral 的新模型“擅长数学,也擅长编码”。他强调,该模型“具备与所有其他模型的竞争力”,包括 OpenAI o1 及 DeepSeek R1。
来源:IT之家
🔗https://www.ithome.com/0/859/802.htm
📧火山引擎明日发布全新豆包视频生成模型,支持无缝多镜头叙事
字节跳动火山引擎宣布6月11日发布全新豆包视频生成模型,支持多镜头叙事、多动作运镜及多种风格视频生成。#火山引擎# #视频生成#
来源:IT之家
🔗https://www.ithome.com/0/859/781.htm
📧IBM 与罗氏集团合作,打造 AI 驱动的血糖检测工具
该解决方案在数月前在瑞士推出,并作为数字化创新和跨行业合作的重点案例,于 6 月 5 至 6 日在瑞士因特拉肯 (Interlaken) 举行的瑞士经济论坛期间进行了展示。
来源:IT之家
🔗https://www.ithome.com/0/859/756.htm
📧ColorOS 小布助手月活量达 1.5 亿,OPPO 手机(含一加)接入 DeepSeek 设备量行业第一
OPPO、一加手机操作系统官方微博 @ColorOS 今日发文宣布:截至 2025 年 5 月,小布助手月活量已达 1.5 亿,OPPO 手机(含一加)接入 DeepSeek 设备量行业第一。
来源:IT之家
🔗https://www.ithome.com/0/859/710.htm
📧OpenAI 称年收入已达 100 亿美元,2029 年目标 1250 亿美元
OpenAI宣布年收入达100亿美元,主要得益于ChatGPT等产品。公司计划2029年收入增至1250亿美元,但面临人才和基础设施的高额投入压力。#AI# #OpenAI#
来源:IT之家
🔗https://www.ithome.com/0/859/639.htm
📧【火山引擎:全新豆包视频生成模型明日发布】
钛媒体App 6月10日消息,火山引擎官微今日发布消息,表示将在6月11日发布全新豆包视频生成模型。(广角观察)
来源:钛媒体
🔗https://www.tmtpost.com/nictation/7592541.html
📧【美团AI编程Agent工具NoCode上线】
钛媒体App 6月10日消息,美团宣布AI编程Agent工具——NoCode全量上线。这款对话式AI编程工具能够通过多轮自然语言交互,自动完成编码任务并完成部署,适用于数据分析、产品原型设计、运营工具开发及门户网站生成等场景。(广角观察)
来源:钛媒体
🔗https://www.tmtpost.com/nictation/7592511.html
📧【Meta的扎克伯格据悉正在创建新的AI“超级智能”团队】
钛媒体App 6月10日消息,Meta的扎克伯格据悉正在创建新的AI“超级智能”团队。(广角观察)
来源:钛媒体
🔗https://www.tmtpost.com/nictation/7592359.html
📧【全球首个AI芯片设计系统发布】
钛媒体App 6月10日消息,全球首个基于人工智能技术的处理器芯片软硬件全自动设计系统“启蒙”近日正式发布。该系统能实现从芯片硬件到基础软件的全流程自动化设计,意味着实现AI设计芯片,而且其设计在多项关键指标上达到人类专家手工设计水平。相关研究成果近日发布于预印本网站arXiv。(科技日报)
来源:钛媒体
🔗https://www.tmtpost.com/nictation/7592288.html
📧【英国拟投资10亿英镑推动人工智能发展】
钛媒体App 6月10日消息,英国首相斯塔默在9日举办的伦敦科技周开幕式上说,将投资10亿英镑(1英镑约合1.35美元),将英国的算力提升20倍,大幅提升人工智能基础设施,推动英国从人工智能技术接受者转变为制造者,确保人工智能大幅改善公共服务。(新华社)
来源:钛媒体
🔗https://www.tmtpost.com/nictation/7592187.html
📧【阿里通义实验室开源检索增强预训练框架MaskSearch】
钛媒体App 6月10日消息,据通义大模型消息,阿里巴巴通义实验室发布并开源了MaskSearch预训练框架,让AI学会“主动搜索+多步推理”,从而更准确、更智能地回答复杂问题。(广角观察)
来源:钛媒体
🔗https://www.tmtpost.com/nictation/7592185.html
📧【小红书开源首个大模型,预训练未使用合成数据】
钛媒体App 6月10日消息,小红书开源了首个大模型dots.llm1,小红书方面称,dots.llm1是一个1420亿参数的混合专家模型(MoE),在推理过程中仅激活140亿参数,能保持高性能的同时大幅度降低训练和推理成本。此外,dots.llm1.ins在预训练阶段使用了11.2万亿的非合成数据,最终性能与阿里Qwen3-32b相比,在中英文、数学、对齐任务上表现接近。(广角观察)
来源:钛媒体
🔗https://www.tmtpost.com/nictation/7591948.html
📧【任正非:华为一年1800亿投入研发,大概有600亿做基础理论研究】
钛媒体App 6月10日消息,近日,在深圳华为总部,围绕大众关心的一些热点话题,与华为首席执行官任正非面对面交流。任正非表示,我们一年1800亿投入研发,大概有600亿是做基础理论研究,不考核。1200亿左右投入产品研发,投入是要考核的。没有理论就没有突破,我们就赶不上美国。(人民日报)
来源:钛媒体
🔗https://www.tmtpost.com/nictation/7591868.html
📧【任正非:中国在人工智能发展方面有很多优势,芯片问题没必要担心】
钛媒体App 6月10日消息,近日,在深圳华为总部,围绕大众关心的一些热点话题,与华为首席执行官任正非面对面交流。任正非表示,人工智能也许是人类社会最后一次技术革命,当然可能还有能源的核聚变。人工智能发展要经历数十年、数百年。不要担心,中国也有很多优势。人工智能在技术上的要害,是要有充足的电力、发达的信息网络。发展人工智能要有电力保障,中国的发电、电网传输都是非常好的,通信网络是世界最发达的,东数西算的理想是可能实现的。芯片问题其实没必要担心,用叠加和集群等方法,计算结果上与最先进水平是相当的。(人民日报)
来源:钛媒体
🔗https://www.tmtpost.com/nictation/7591863.html
页:
[1]