在追求“超个性化医疗”的愿景中,我们设想未来能通过整合个体的基因组、生活习惯、社会环境等海量数据,实现前所未有的精准诊疗。然而,一个根本性的瓶颈正横亘在前行的道路上——我们对AI的提问方式,从根本上就偏离了健康的真实逻辑。
当前大语言模型在医疗健康应用中的局限,并非源于数据不足或模型能力不够,而是缺乏对“交互感知的提问结构”的系统性支持。传统的提示词优化技术,如同在既定航道上修补船只,却无法改变航道本身偏离健康真相的本质。
事实上,健康的证据是交互性的——每一个风险因素的作用,往往取决于其他因素的共同存在(条件性),通过一系列中间环节传导(中介性),并在生命历程的不同阶段呈现迥异的效果(时间性)。若我们的提问仍停留在“单一因素导致单一结果”的静态框架中,AI输出的答案即使再流畅、再权威,也注定是“精确的错误”。
健康的证据拥有三个核心的结构性特征。首先是条件性,例如,体力活动对预防糖尿病的效果,在不同社会经济阶层中可能截然不同。其次是中介性,许多因素并非直接致病,而是通过影响行为、心理等路径间接起作用。最后是时间性,暴露于某种风险的短期与长期效应可能完全相反。这就要求我们在提问时,必须明确三个要素:变量之间是何种交互关系(修饰还是中介);各自扮演什么因果角色;以及我们关注的是短期、累积还是贯穿生命周期的效应。
值得注意的是,专家用户(如医生)与普通用户(如患者)在面对相同健康问题时,其提问的目标存在本质差异。前者关注群体层面的异质性与因果结构,后者则更关心“这条信息是否适用于我”。然而,当前的AI交互系统往往采用“统一提问框架”,将结构化的认知负担转嫁给了不具备专业知识的用户。
为验证这一理论,研究者以2型糖尿病为例设计了一项实证研究。他们将问题分为三种类型:未指定结构的基线提问、经提示词优化的提问,以及明确指定了交互类型、中介路径与时间框架的交互感知提问。结果显示,基线提问在所有AI模型中都表现出严重的结构缺失;优化提问在表达清晰度上有所提升,但核心结构问题依旧;唯有交互感知提问,在条件推理、路径完整性和时间框架等关键维度上实现了质的飞跃。这一发现强有力地证明,提问的结构性设计,远比模型本身的差异更能主导AI的推理质量。
基于此,研究人员提出了一套“交互感知提问设计原则”。这包括在提问中明确因果角色、区分短期与长期效应、并嵌入治理意识以界定AI输出的行动边界。这些原则不依赖于特定模型,是未来AI健康系统的基础性“认知基础设施”。它不仅能提升AI输出的可靠性,通过显式呈现条件与异质性,还能帮助我们揭示健康不平等的社会根源,避免“平均效应”掩盖真相,同时防止AI输出被误用作未经核实的个性化医疗建议。
尽管前景广阔,但从实验走向实践仍面临挑战,普通用户需要交互式引导才能提出结构化问题;未来需在通用模型与医疗专用模型之间设计协调的“交互层”;技术架构也需从以任务执行为中心,转向对提问结构本身的感知与支持。
总而言之,我们必须正视当前AI医疗应用中被忽视的深层问题——提问的结构性缺失。它呼吁我们,在通往超个性化医疗的道路上,真正推动AI赋能健康的,不仅是更强大的模型,更是对“提问”本身进行一场深刻的范式革命——从优化答案走向设计问题。
#