动态
最新动态
| November 2025 | 论文 |
MedQ-Deg 发布——评测多模态大语言模型在医学图像退化下的鲁棒性
我们发布 MedQ-Deg,一个多维度基准,对 40 个主流多模态大语言模型进行评估,涵盖 18 种退化 类型、30 个能力维度和 7 种影像模态(共 24,894 个问答对)。我们揭示了"AI 邓宁-克鲁格效应" ——模型在退化输入导致准确率严重下降时仍维持不恰当的高置信度。
|
| September 2025 | 论文 |
UniMedVL:首个统一医学图像理解与生成模型
我们提出 UniMedVL,首个在单一架构内统一图像理解与生成的医学多模态模型。基于 560 万条 多模态样本和渐进式课程学习策略,UniMedVL 在 5 个理解基准和 8 种生成模态上均取得优异表现。
|
| October 2025 | 论文 |
MedQ-Bench:面向多模态大语言模型的医学图像质量评估新基准
我们发布 MedQ-Bench,一个覆盖 5 种模态、40 余种质量属性的医学图像质量评估新基准 (3,308 个样本)。对 14 个主流多模态大语言模型的零样本评估显示,GPT-4 准确率为 68.97%,仍低于专家水平 13.5 个百分点。
|
| September 2025 | 加入 |
欢迎新科研实习生加入 GMAI 实验室
欢迎唐文浩(南开大学)、高书剑(复旦大学)和林佳仕(西北工业大学)作为新科研实习生加入 GMAI 实验室,带来计算病理学、多模态学习和大语言模型智能体方面的专业知识。
|
| August 2025 | 论文 |
科学大语言模型综述发布——联合全球 20+ 顶尖机构
我们联合全球 20 余家顶尖机构发布科学大语言模型(Sci-LLMs)系统性综述, 覆盖 1000 余篇文献、600 余个核心数据集,并面向 AI 辅助科学发现生态系统 提出未来发展路线图。
|
| July 2025 | 论文 |
OphCLIP 被 ICCV 2025 收录——层次化手术视频语言预训练
我们面向眼科手术视频理解的层次化检索增强框架 OphCLIP 被 ICCV 2025 收录。基于 OphVL(375K+ 视频-文本对),OphCLIP 在 11 个基准数据集上的阶段识别和多器械 检测任务中创下新纪录。
|
| June 2025 | 论文 |
Ophora 被 MICCAI 2025 收录为口头报告
我们的文本驱动眼科手术视频生成模型 Ophora 被 MICCAI 2025 收录为口头报告。Ophora 在 16 万视频-文本对上训练,在 FID、FVD 和 CLIPScore 指标上超越现有方法。
|
| June 2025 | 论文 |
RetinaLogos、ProgEmu 和 MRI 转换三篇论文被 MICCAI 2025 收录
三篇论文被 MICCAI 2025 收录:RetinaLogos(语言驱动的高分辨率眼底图像生成)、 ProgEmu(可解释反事实医学图像生成),以及基于证据回归与分布校准的多模态 MRI 转换。
|
| May 2025 | 论文 |
MedITok:首个面向医学图像的统一视觉标记器
我们发布 MedITok,首个面向医学图像的统一视觉标记器。在 30M+ 图像上预训练, MedITok 在涵盖 9 种影像模态、30 余个数据集的重建、分类、生成及视觉问答 任务中均达到当前最优水平。
|
| May 2025 | 论文 |
MedSegAgent 被 IEEE 生物医学与健康信息学期刊收录
我们的指令驱动医学图像分割多智能体系统 MedSegAgent 被 IEEE 生物医学与健康信息学期刊 (JBHI)收录。该系统无需训练单一通用模型,即可支持跨 CT、MRI、PET/CT 及超声的 343 个分割目标。
|
| February 2025 | 论文 |
SlideChat 被 CVPR 2025 收录
我们的全切片病理图像理解助手 SlideChat 被 CVPR 2025 收录。SlideChat 在 SlideBench-VQA 上取得 81.17% 的准确率,在 22 个基准任务中的 18 个上超越最新方法。
|
| December 2024 | 论文 |
GMAI-MMBench 在 NeurIPS 2024 发表——全面评估 50 个大视觉语言模型
GMAI-MMBench 在 NeurIPS 2024 发表——迄今最全面的医学 AI 评测平台,覆盖 284 个数据集、 38 种影像模态和 18 项临床任务。即使表现最优的 GPT-4o 也仅达 53.96% 的准确率, 凸显了医学多模态 AI 面临的严峻挑战。
|
| November 2024 | 论文 |
GMAI-VL 发布——在 550 万图文对上训练的通用医学视觉语言模型
我们发布 GMAI-VL,一个在 GMAI-VL-5.5M(涵盖 18 个临床专科、10 余种影像模态的 550 万高质量图文对)上训练的通用医学视觉语言模型。GMAI-VL 在多个医学多模态 视觉问答与诊断推理基准测试上达到或超越当前最优水平。
|
| October 2024 | 获奖 |
SAM-Med3D 入选 ECCV 2024 生物医学图像计算研讨会口头报告
SAM-Med3D 入选 ECCV 2024 生物医学图像计算(BIC)研讨会口头报告。SAM-Med3D 将 SAM 适配至三维体积医学图像,覆盖 21K 医学体积数据的 247 个分割类别。
|
| June 2024 | 论文 |
OmniMedVQA 被 CVPR 2024 收录——大规模医学视觉问答基准
OmniMedVQA 被 CVPR 2024 收录。该基准整合 73 个数据集,涵盖 12 种影像模态和 20 余个 解剖区域,揭示了许多医学专用模型在医学视觉问答任务上竟落后于通用大视觉语言模型的 系统性规律。
|