版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
AI在基层医疗慢性病管理中的伦理边界演讲人01引言:基层医疗慢性病管理的现实困境与AI介入的时代必然02AI赋能基层医疗慢性病管理的核心价值:效率提升与模式重构03结论:回归“以患者为中心”——AI伦理边界的终极意义目录AI在基层医疗慢性病管理中的伦理边界01引言:基层医疗慢性病管理的现实困境与AI介入的时代必然引言:基层医疗慢性病管理的现实困境与AI介入的时代必然作为一名在基层医疗一线工作了十余年的临床医生,我亲身经历了我国慢性病管理的“三重压力”:一是患者基数庞大,我国高血压、糖尿病等慢性病患者已超3亿,其中70%以上集中在基层;二是医疗资源结构性失衡,基层医疗机构普遍存在“人少、技弱、设备简”的困境,一名社区医生往往要服务数千名慢性病患者;三是管理需求与供给矛盾突出,慢性病需要长期监测、随访和个性化干预,传统“面对面”管理模式难以覆盖全周期。近年来,人工智能(AI)技术的快速发展为破解这一困境提供了新思路。从智能问诊系统到慢性病风险预测模型,从可穿戴设备数据整合到用药方案智能推荐,AI在提升基层医疗效率、优化资源配置方面展现出巨大潜力。然而,在临床实践中,我也目睹了AI介入引发的伦理困惑:当AI算法根据患者数据预测“再入院风险”时,我们是否过度依赖了冰冷的数字?当智能设备持续收集患者生理数据时,隐私边界究竟在哪里?引言:基层医疗慢性病管理的现实困境与AI介入的时代必然当AI给出的用药建议与医生经验冲突时,决策权应如何归属?这些问题让我深刻意识到:AI在基层医疗慢性病管理中的应用,绝非单纯的技术升级,而是一场涉及医学伦理、人文关怀与社会公平的深刻变革。界定AI在基层医疗慢性病管理中的伦理边界,既是技术落地的“安全阀”,也是守护“以患者为中心”医疗本质的“压舱石”。本文结合临床实践与伦理理论,从价值审视、挑战剖析、路径构建三个维度,系统探讨这一议题,旨在为AI与基层医疗的深度融合提供伦理指引。02AI赋能基层医疗慢性病管理的核心价值:效率提升与模式重构AI赋能基层医疗慢性病管理的核心价值:效率提升与模式重构在深入探讨伦理边界之前,有必要先明确AI在基层医疗慢性病管理中的积极作用。这些价值不仅是技术合理性的基础,也是伦理讨论的“锚点”——脱离实际需求的伦理探讨容易陷入空泛,而对价值的清晰认知则能帮助我们更精准地定位伦理问题的优先级。破解“人力困境”:实现慢性病管理的规模化覆盖基层慢性病管理最大的痛点是“医生时间有限”。以2型糖尿病管理为例,指南要求患者每年至少进行4次血糖监测、2次并发症筛查,并需根据血糖调整用药。但现实中,社区医生人均服务居民超2000人,即便每日工作10小时,也难以完成所有患者的规律随访。AI通过自动化流程实现了“人力替代”:智能随访机器人可自动拨打电话、询问症状并录入系统,节省60%的随访时间;AI影像识别系统能快速筛查糖尿病视网膜病变,准确率达90%以上,将原本需要眼科医生30分钟/例的筛查缩短至5分钟/例。在我所在的社区卫生服务中心,引入AI随访系统后,高血压患者规律服药率从58%提升至76%,基层医生得以将更多精力用于复杂病例的诊疗。提升“精准度”:从“经验医学”到“数据驱动”的跨越慢性病管理强调“个体化”,但传统医疗中,医生的判断多依赖临床经验,易受主观因素影响。AI通过整合多源数据(电子病历、可穿戴设备、检验结果等),构建风险预测模型,实现了“精准化干预”。例如,某三甲医院开发的卒中风险预测模型,纳入血压、血脂、血糖等12项指标,对基层高血压患者卒中风险的预测AUC达0.89,显著高于传统Framingham评分。在贵州某基层试点,该模型使高危患者的一年内卒中发生率下降34%。这种“数据驱动”的精准管理,尤其适用于医疗资源匮乏地区的慢性病初筛与风险评估。优化“连续性”:构建“院前-院中-院后”全周期管理闭环慢性病的本质是“长期管理”,但传统医疗体系存在“重治疗、轻管理”“重医院、轻社区”的割裂。AI通过打通数据壁垒,实现了全周期管理的无缝衔接:院前,智能手环实时监测患者血压、心率,异常数据自动预警并同步给社区医生;院中,AI辅助医生调取患者历史数据,制定个性化治疗方案;院后,通过APP推送用药提醒、饮食指导,并定期生成健康报告。在浙江某社区,这种“AI+家庭医生”模式使慢性病患者再入院率降低28%,生活质量评分(SF-36)提升15分。促进“可及性”:缩小城乡医疗资源差距我国基层医疗资源分布不均,中西部农村地区每千人口执业(助理)医师数仅为东部城市的1/3。AI通过“技术下沉”有效缓解了这一问题:远程AI会诊系统让偏远地区患者能享受三甲医院的专家建议;智能辅助诊断系统帮助基层医生识别早期并发症,减少漏诊;AI健康科普平台用方言推送疾病知识,提升患者健康素养。在甘肃某县卫生院,引入AI辅助诊断后,糖尿病肾病早期检出率从12%提升至45%,显著改善了当地患者的预后。三、AI介入基层医疗慢性病管理的伦理边界挑战:技术理性与人文价值的博弈AI的上述价值毋庸置疑,但当我们深入临床实践,会发现技术赋能的背后潜藏着多重伦理风险。这些风险并非技术本身的“原罪”,而是技术逻辑与医疗伦理在基层场景中的碰撞——医疗的核心是“人”,而AI的核心是“数据”;医疗强调“情境化判断”,而AI依赖“标准化算法”;医疗注重“关系性关怀”,而AI追求“效率最大化”。这种根本性的差异,使得AI在基层慢性病管理中的每一步应用,都可能触及伦理边界。促进“可及性”:缩小城乡医疗资源差距(一)患者隐私与数据安全的边界:从“数据采集”到“信息孤岛”的失衡慢性病管理依赖长期、高频的数据采集,包括患者的生理指标、生活习惯、病史甚至基因信息。这些数据具有高度敏感性,一旦泄露或滥用,可能对患者就业、保险、社会评价造成严重影响。促进“可及性”:缩小城乡医疗资源差距数据采集的“知情同意困境”基层患者多为老年人(60岁以上占比超70%),数字素养普遍较低。当医生告知“AI需要采集您的健康数据用于管理”时,许多患者因“听不懂”“不敢问”而选择默认,这种“形式上的知情”实质上剥夺了患者的自主选择权。我在社区调研时遇到过一位72岁的糖尿病患者,她智能手环的定位功能被默认开启,子女通过APP能实时查看她的行踪,她虽感不适却不知如何拒绝,最终因“隐私暴露”停止使用设备,导致血糖监测中断。促进“可及性”:缩小城乡医疗资源差距数据存储的“安全漏洞风险”基层医疗机构的信息化建设相对滞后,数据存储能力薄弱。部分厂商为降低成本,将患者数据存储在境外服务器或未加密的本地数据库,增加了数据泄露风险。2022年某省基层医疗AI系统漏洞事件中,超10万条高血压患者的身份证号、住址、用药记录被公开售卖,引发公众对AI数据安全的强烈质疑。促进“可及性”:缩小城乡医疗资源差距数据使用的“目的扩张问题”AI系统采集的“医疗数据”可能被用于商业目的,如药企通过分析患者用药数据精准推送广告,保险公司利用健康数据调整保费。这种“二次利用”往往未告知患者,违背了数据采集的“最小必要原则”——AI慢性病管理需要的是“血糖波动数据”,而非“患者的购物偏好”或“社交关系网络”。(二)算法公平性与医疗资源可及性的边界:避免“数字鸿沟”加剧健康不平等AI算法的“公平性”是基层医疗伦理的核心议题。若算法设计存在偏见,可能使弱势群体在慢性病管理中处于更不利地位,违背医疗公平原则。促进“可及性”:缩小城乡医疗资源差距数据偏差导致的“算法歧视”AI模型的性能高度依赖训练数据,但基层医疗数据存在明显的“选择性偏倚”:农村患者、低收入群体、少数民族患者的电子病历数据往往不完整,或因未参与筛查而缺失。例如,某AI糖尿病视网膜病变筛查模型在城市人群中的准确率达95%,但在农村人群中仅76%,原因在于农村患者眼底照片质量差(设备老旧、操作不规范),但模型未针对此类数据优化。这种“数据鸿沟”导致AI在农村基层的实用性大打折扣,反而加剧了城乡医疗差距。促进“可及性”:缩小城乡医疗资源差距技术可及性引发的“分层管理”AI慢性病管理工具(如智能血糖仪、远程监测平台)的价格对低收入群体而言仍是负担。在城市社区,患者可通过医保或商业保险购买设备;但在农村地区,许多患者仍需自费。在四川某调研中,仅23%的农村高血压患者能负担智能血压计,而城市这一比例为68%。这种“技术可及性差异”使得AI可能成为“富人的福利”,而非“普惠的医疗”,与基层医疗“公平可及”的初心背道而驰。促进“可及性”:缩小城乡医疗资源差距语言与文化障碍下的“服务排斥”我国基层患者中有大量少数民族(如藏族、维吾尔族),其语言、饮食习惯与汉族差异显著。但多数AI系统仅支持汉语,健康科普内容也未考虑民族地区的文化禁忌。例如,AI系统向维吾尔族糖尿病患者推送“禁食高糖食物”时,未解释其传统饮食(如馕、抓饭)中的糖分含量,导致患者难以理解并执行建议,降低了管理依从性。医患关系与人文关怀的边界:警惕“技术依赖”弱化医疗温度医疗的本质是“人与人之间的关怀”,而AI的过度介入可能破坏医患之间的信任关系,使慢性病管理从“有温度的服务”退化为“冷冰冰的数据处理”。医患关系与人文关怀的边界:警惕“技术依赖”弱化医疗温度AI替代导致的“情感疏离”慢性病患者尤其需要医生的倾听与心理支持。当社区医生过度依赖AI随访(如仅通过机器人电话询问“血压是否正常”),患者会感到“不被重视”。我遇到过一位患高血压10年的老人,他抱怨:“以前医生会问我‘最近睡得好不好?子女常来看你吗?’,现在AI只问‘血压数值多少?药吃了没?’,感觉像个机器在管我。”这种情感需求的忽视,可能降低患者的治疗依从性,甚至引发抵触情绪。医患关系与人文关怀的边界:警惕“技术依赖”弱化医疗温度算法依赖引发的“临床惰性”AI的“便捷性”可能导致基层医生丧失独立思考能力。当AI给出“某患者需加用A药”的建议时,部分医生会直接采纳,而不结合患者的肝肾功能、经济状况等综合判断。在广东某社区医院,曾出现AI推荐“某糖尿病患者使用某进口药”,但该药价格昂贵(月均药费1500元),患者无力承担,而医生因“相信AI”未考虑替代方案,导致患者擅自停药,血糖失控。这种“算法依赖”削弱了医生的临床决策能力,也违背了“个体化治疗”的医学原则。医患关系与人文关怀的边界:警惕“技术依赖”弱化医疗温度责任转嫁导致的“信任危机”当AI出现误诊或漏诊时,部分医生会将责任推给“算法”,患者则因“不知道该找谁”而对整个医疗系统产生不信任。例如,某AI系统未能识别某高血压患者的“继发性高血压”线索(血钾偏低),导致延误治疗,患者追问医生时,医生回答“AI没提示,我也没办法”。这种“责任模糊”严重损害了医患关系,而基层患者因信息不对称,往往处于弱势地位。责任归属与法律规制的边界:当AI决策失误,谁来负责?AI在慢性病管理中的决策具有“复杂性”和“隐蔽性”,一旦发生损害,责任认定成为难题。现有法律体系对AI医疗责任的界定仍存在空白,基层医疗机构与患者往往陷入“维权无门”的困境。责任归属与法律规制的边界:当AI决策失误,谁来负责?责任主体的“多元困境”AI慢性病管理涉及多个主体:AI开发者(算法设计)、医疗机构(设备采购)、医生(最终决策)、患者(数据提供)。当AI误判导致患者用药过量时,责任应由谁承担?是算法存在缺陷的开发者,还是未核实AI建议的医生,或是未告知患者风险的医疗机构?2023年某基层医疗AI事故中,患者因AI未预警“药物相互作用”导致肝损伤,法院在审理时因“责任划分不清”迟迟无法判决,最终患者与医院达成和解,但类似问题并未得到系统性解决。责任归属与法律规制的边界:当AI决策失误,谁来负责?法律规制的“滞后性”我国目前尚无专门针对AI医疗的法律法规,现有《民法典》《基本医疗卫生与健康促进法》对AI责任的认定原则性较强,但缺乏具体细则。例如,法律未明确规定“AI建议的采纳比例”“医生对AI的审核义务”等关键问题,导致基层医生在临床实践中“不敢用、不会用”AI——用怕担责,不用又无法满足管理需求。责任归属与法律规制的边界:当AI决策失误,谁来负责?跨区域监管的“协调难题”AI医疗系统多为跨区域部署(如省级AI慢病管理平台),涉及多个监管主体(卫健委、网信办、药监局等)。当数据跨区域流动时,监管标准不统一(如某省允许AI直接开处方,某省则要求医生复核),导致基层医疗机构面临“合规困境”。在长三角一体化试点中,曾出现某县患者使用上海市AI系统开具的处方,但因两地监管要求不同,当地医院拒绝执行,延误了患者治疗。(五)患者自主权与知情同意的边界:如何让“数据主体”真正掌控健康信息?慢性病管理中的“知情同意”是患者自主权的核心体现,但AI技术的复杂性使得传统的“知情同意模式”难以适应,患者往往在“不完全理解”的情况下让渡了自主权。责任归属与法律规制的边界:当AI决策失误,谁来负责?知情同意的“形式化倾向”目前基层医疗机构使用AI系统时,多采用“一次性书面告知”模式,即患者在首次就诊时签署《AI使用知情同意书》,但AI系统会不断更新算法、增加功能,患者对后续的数据使用目的、风险变化并不知情。这种“静态同意”实质上剥夺了患者的“动态知情权”。责任归属与法律规制的边界:当AI决策失误,谁来负责?“理解障碍”下的“虚假同意”AI系统的运行原理、算法逻辑对普通患者而言过于复杂,即便医生解释,患者也难以理解。例如,当告知“AI会根据您的血糖数据预测风险”时,多数患者无法理解“预测模型”“概率计算”等概念,只能选择“同意”。这种“理解不能”导致的“虚假同意”,违背了知情同意的“理解原则”。责任归属与法律规制的边界:当AI决策失误,谁来负责?选择权的“结构性缺失”在基层医疗资源紧张的现实下,患者往往面临“用AI,或不用AI”的“二选一”——若拒绝使用AI,可能无法获得规律随访;若使用AI,则需让渡数据隐私。这种“非自愿的选择”实质上压缩了患者的自主空间,尤其对老年、低学历患者而言,自主权沦为“形式”。四、构建AI在基层医疗慢性病管理中的伦理边界的实践路径:从“原则”到“行动”的落地AI在基层医疗慢性病管理中的伦理边界并非“固定不变”的教条,而是动态平衡的“标尺”——既要充分发挥AI的技术价值,又要坚守医疗的人文底线。基于前文分析,结合国内外实践经验,本文提出“制度-技术-主体-文化”四维协同的伦理边界构建路径。责任归属与法律规制的边界:当AI决策失误,谁来负责?选择权的“结构性缺失”(一)制度层面:构建“法律+伦理”双轨规制体系,明确责任与权利制度是伦理落地的保障,需通过顶层设计解决AI医疗中的“权责不清”“监管滞后”等问题,为基层医疗机构提供明确的行动指南。责任归属与法律规制的边界:当AI决策失误,谁来负责?制定AI医疗伦理专项指南0504020301建议由国家卫健委牵头,联合医学、法学、伦理学专家,制定《基层医疗AI慢性病管理伦理指南》,明确以下核心原则:-数据最小化原则:AI系统仅采集与慢性病管理直接相关的必要数据,禁止过度收集;-算法透明原则:开发者需向医疗机构公开AI模型的训练数据、算法逻辑(可解释性),不得使用“黑箱算法”;-动态知情原则:当AI系统功能或数据使用目的发生变化时,需重新获得患者知情同意;-风险分级原则:根据AI决策的风险等级(如低风险:健康建议;高风险:用药调整)设定不同的审核流程,高风险决策必须由医生复核。责任归属与法律规制的边界:当AI决策失误,谁来负责?完善AI医疗责任认定法规在《民法典》《医疗事故处理条例》中增加AI医疗责任条款,明确“开发者责任”(算法缺陷)、“医疗机构责任”(设备维护不当)、“医生责任”(未审核AI建议)的划分标准。例如,可规定“若医生未对AI的高风险建议进行合理审核导致损害,医生承担主要责任;若算法存在明显缺陷且未告知医疗机构,开发者承担连带责任”。同时,建立“AI医疗强制保险”制度,要求开发者、医疗机构购买责任险,保障患者权益。责任归属与法律规制的边界:当AI决策失误,谁来负责?建立跨区域协同监管机制针对AI系统跨区域部署的特点,由国家卫健委、网信办联合建立“AI医疗监管平台”,统一数据安全标准、算法审核流程和监管规则。例如,实行“算法备案制”——AI系统在基层应用前需向监管平台提交算法代码、测试报告,经伦理审查后方可上线;建立“数据跨境流动审批制度”,患者数据不得未经批准传输至境外。(二)技术层面:以“伦理嵌入”推动算法透明与公平,消除技术偏见技术是伦理的载体,需在AI设计开发阶段融入伦理考量,从源头降低伦理风险,使技术本身具备“向善”的基因。责任归属与法律规制的边界:当AI决策失误,谁来负责?开发“可解释AI”(XAI)系统针对基层医生的“算法依赖”问题,开发可解释AI模型,当AI给出建议时,能同步展示“判断依据”(如“推荐加用A药,因为患者近3周平均血压>140/90mmHg,且血钾正常”)。这种“透明化”决策过程能帮助医生理解AI逻辑,减少盲目依赖。例如,某公司开发的糖尿病管理AI系统,通过“注意力机制”可视化关键指标(如血糖波动趋势、用药史),医生可快速验证AI建议的合理性,准确率提升40%。责任归属与法律规制的边界:当AI决策失误,谁来负责?构建“多元化”训练数据集为解决算法歧视问题,需在数据采集阶段纳入更多基层弱势群体数据(如农村患者、少数民族患者),并通过“数据增强技术”(如合成少数类样本)平衡数据分布。例如,在训练AI眼底筛查模型时,专门收集农村患者低质量眼底照片,并通过算法模拟优化图像质量,使模型在基层数据中的准确率提升至90%以上。同时,建立“数据偏见检测工具”,定期评估算法在不同人群中的性能差异,及时优化。责任归属与法律规制的边界:当AI决策失误,谁来负责?设计“适老化”AI交互界面针对基层老年患者数字素养低的问题,开发“简易化”AI交互系统:语音交互代替文字输入,用方言代替普通话,界面字体放大、操作步骤简化(如一键呼叫医生、语音录入症状)。例如,某社区智能随访终端采用“语音播报+大屏显示”模式,患者只需回答“血压正常”“有点头晕”等简单问题,系统自动生成随访记录,老年患者使用满意度达85%。(三)主体层面:强化“人机协同”中的医生主导与患者参与,重塑信任关系AI在基层医疗中的定位是“辅助工具”,而非“替代者”。需通过医生能力提升和患者教育,构建“医生主导、AI辅助、患者参与”的新型慢性病管理模式。责任归属与法律规制的边界:当AI决策失误,谁来负责?提升基层医生的“AI素养”与“伦理意识”将AI应用与医学伦理纳入基层医生继续教育必修课程,培训内容应包括:AI系统操作技能、算法局限性识别、伦理风险应对(如数据泄露处理、患者隐私保护)。例如,某省卫健委开展的“AI+家庭医生”培训中,通过“案例模拟”(如“AI建议加药但患者经济困难,如何沟通”)提升医生的临床决策能力,培训后医生对AI的合理使用率提升62%。责任归属与法律规制的边界:当AI决策失误,谁来负责?建立“医生-AI-患者”共同决策机制在慢性病管理中,AI可提供数据分析和建议,但最终决策需由医生与患者共同制定。医生需向患者解释AI建议的利弊(如“AI建议您使用某药,降糖效果较好,但可能引起胃肠道反应,您能接受吗?”),尊重患者的治疗偏好(如经济状况、生活习惯)。例如,在糖尿病用药管理中,某社区医院采用“AI初筛+医生沟通+患者选择”模式,患者对治疗方案的选择满意度达90%,用药依从性提升35%。责任归属与法律规制的边界:当AI决策失误,谁来负责?加强患者数字能力与伦理教育通过社区讲座、短视频、宣传手册等形式,向患者普及AI医疗知识(如“哪些数据会被采集”“如何查看数据使用记录”),提升其对AI的理解和信任。同时,发放《AI使用患者手册》,明确患者的权利(如数据删除权、算法拒绝权)和维权渠道(如向卫健委投诉)。在浙江某社区,通过“患者AI体验日”活动(让患者亲自操作AI系统、了解算法逻辑),患者对AI的接受度从58%提升至82%。(四)文化层面:培育“技术向善”的基层医疗伦理文化,平衡效率与温度伦理边界的确立离不开文化土壤,需在基层医疗系统中培育“以人为本”的伦理文化,使AI的应用始终服务于“增进患者健康”的终极目标。责任归属与法律规制的边界:当AI决策失误,谁来负责?倡导“技术赋能人文”的理念通过评选“AI+人文关怀”典型案例(如“医生利用AI随访系统发现患者情绪异常,及时进行心理疏导”),宣传技术与人文融合的实践成果。在医疗机构走廊、宣传栏张贴“AI是工具,关怀是本质”标语,强化医护人员的伦理意识。责任归属与法律规制的边界:当AI决策失误,谁来负责?建立“伦理-技术”协同
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2025年山西煤炭职工联合大学马克思主义基本原理概论期末考试笔试真题汇编
- 2025年淮南市职工大学马克思主义基本原理概论期末考试真题汇编
- 2025年福州工商学院马克思主义基本原理概论期末考试真题汇编
- 2025年湖北美术学院马克思主义基本原理概论期末考试真题汇编
- 2026年九州职业技术学院单招职业技能考试备考试题附答案详解
- 2025年绍兴文理学院马克思主义基本原理概论期末考试笔试真题汇编
- 2025年长春工程学院马克思主义基本原理概论期末考试笔试真题汇编
- 2026年山东药品食品职业学院单招综合素质考试备考题库附答案详解
- 2026 年高职信息安全技术应用(信息安全应用)试题及答案
- 2026年黄河交通学院单招综合素质笔试模拟试题附答案详解
- 北京市2025-2026学年高二(上)期末物理适应卷C(含答案)
- 2026年黑龙江高职单招考试高考语文试卷试题(含答案)
- 全球隐球菌病指南(2024版):诊断与管理课件
- 市场营销策划实践实习报告范例
- 2026年中央广播电视总台招聘124人备考笔试题库及答案解析
- 担保取消协议书
- 2025国家统计局滨海新区调查队辅助调查员招聘3人备考笔试试题及答案解析
- 星罗棋布的港口课件
- 2025天津市机电工艺技师学院招聘派遣制社会化21人(第二批)考试题库附答案
- 统一顶新食品成品仓库管理的手册
- 2025年洛阳市公安机关招聘辅警501名考试题库附答案
评论
0/150
提交评论