人工智能辅助诊疗的责任分配_第1页
人工智能辅助诊疗的责任分配_第2页
人工智能辅助诊疗的责任分配_第3页
人工智能辅助诊疗的责任分配_第4页
人工智能辅助诊疗的责任分配_第5页
已阅读5页,还剩50页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

人工智能辅助诊疗的责任分配演讲人01人工智能辅助诊疗的责任分配02引言:人工智能辅助诊疗的发展与责任分配的时代命题03人工智能辅助诊疗责任分配的理论基础04人工智能辅助诊疗中多元主体的责任划分05人工智能辅助诊疗责任分配的特殊场景与应对06人工智能辅助诊疗责任分配的挑战与未来路径07结论:构建技术赋能与风险防控的责任共同体目录01人工智能辅助诊疗的责任分配02引言:人工智能辅助诊疗的发展与责任分配的时代命题引言:人工智能辅助诊疗的发展与责任分配的时代命题随着人工智能(AI)技术在医疗领域的深度应用,辅助诊疗系统已从辅助影像识别、慢性病管理逐步拓展到手术规划、药物研发、重症监护等核心临床环节。据《中国人工智能医疗产业发展报告》显示,2023年国内AI辅助诊疗市场规模突破300亿元,三甲医院AI辅助诊断渗透率已达62%,其在提升诊断效率、降低医疗差错、优化资源配置等方面的价值日益凸显。然而,当AI参与医疗决策并引发不良后果时——如AI影像漏诊导致病情延误、算法偏见误判治疗方案、系统故障引发用药错误——责任归属问题迅速成为医疗、法律、伦理领域的焦点争议。传统医疗责任体系以“医师中心主义”为核心,围绕医患双方的权责义务构建,而AI的介入打破了这一平衡:AI既非完全自主的“法律主体”,也非单纯的“医疗工具”,其算法的“黑箱性”、数据的不确定性、决策的交互性,引言:人工智能辅助诊疗的发展与责任分配的时代命题使得责任分配陷入“开发者—医疗机构—医务人员—患者”多方主体的权责模糊地带。这种模糊性不仅损害患者权益,更制约着AI医疗技术的健康发展——若责任规则不明,开发者可能因“责任恐惧”而削弱技术创新动力,医务人员可能因“责任风险”而拒绝使用AI,最终导致技术红利无法释放。因此,构建与AI辅助诊疗特性适配的责任分配框架,既是保障患者安全、维护医疗秩序的现实需求,也是推动技术合规、促进行业可持续发展的必然选择。本文将从理论基础、主体权责、场景化应用、挑战应对四个维度,系统探讨AI辅助诊疗责任分配的路径,以期为行业实践提供参考。03人工智能辅助诊疗责任分配的理论基础人工智能辅助诊疗责任分配的理论基础责任分配并非简单的“归责游戏”,而是需以理论为锚点,平衡技术规律、伦理要求与法律逻辑。AI辅助诊疗的特殊性,要求我们在传统医疗责任理论的基础上,重构适应人机协同场景的责任逻辑。技术特性对传统责任逻辑的挑战传统医疗责任分配以“过错责任”为核心,聚焦医务人员的“注意义务”违反——即是否尽到与当时医疗水平相符的诊疗义务。而AI辅助诊疗的技术特性,使这一逻辑面临三重挑战:1.算法自主性与“过错认定”的复杂性:AI系统的决策基于数据训练与算法模型,其“自主性”表现为非线性的数据关联与模式识别,而非人类的逻辑推理。当AI决策失误时,过错是源于算法设计缺陷、数据偏差,还是医务人员对结果的过度信任?传统以“主观过错”为核心的责任认定难以直接适用。2.“黑箱问题”与因果关系的断裂:深度学习算法的决策过程往往难以解释(如为何将某影像判定为恶性肿瘤),导致损害结果与AI行为之间的因果关系难以清晰界定——若无法证明“AI的错误决策直接导致损害”,则责任链条便无从谈起。技术特性对传统责任逻辑的挑战3.动态迭代性与“责任追溯”的困难:AI系统可通过“在线学习”持续优化,导致同一软件在不同时间点的决策逻辑可能存在差异。若损害发生在系统更新前,责任主体是更新前的开发者还是更新后的维护者?传统的“静态责任”模型难以应对技术的“动态进化”。伦理原则对责任分配的价值引导医疗行为的本质是“以患者为中心”,AI辅助诊疗的责任分配需坚守医疗伦理的核心原则,这些原则既是对技术边界的约束,也是责任划分的价值标尺:1.患者利益优先原则:无论AI如何发展,医疗决策的终极目标是保障患者生命健康。责任分配需以“是否最大限度维护患者利益”为基准,避免因技术便利或成本考量而牺牲患者安全。例如,当AI诊断与医师意见冲突时,若AI缺乏充分循证医学支持,医务人员不得以“AI建议”为由拒绝复核,否则需承担相应责任。2.透明度与可解释性原则:患者有权知晓影响自身健康决策的依据,AI辅助诊疗的“黑箱”特性违背了这一伦理要求。因此,责任分配需将“算法可解释性”纳入开发者义务——若因算法不可解释导致患者无法理解决策依据并作出知情同意,开发者与医疗机构需承担共同责任。伦理原则对责任分配的价值引导3.公平与无歧视原则:AI系统的训练数据若存在人群偏差(如以特定人种数据为主),可能导致对其他群体的诊断准确率下降。这种“算法歧视”不仅违背医疗伦理,更构成开发者“设计缺陷”的责任基础——需确保算法在不同性别、年龄、地域人群中的公平性,否则需对因歧视性决策造成的损害承担赔偿责任。法律框架对责任分配的制度支撑我国现有法律体系为AI辅助诊疗责任分配提供了初步框架,但需结合技术特性进行适应性解释:1.《民法典》中的“产品责任”与“过错责任”衔接:AI辅助诊疗系统可视为“医疗器械”,若因产品缺陷(如算法漏洞、硬件故障)造成损害,适用《民法典》第1202条“产品责任”;若因医务人员使用不当(如未按规范操作AI系统)造成损害,则适用第1218条“医疗损害责任”。但AI的“软硬结合”特性(算法+数据+硬件)使得“缺陷认定”需结合技术标准与临床场景。2.《数据安全法》与《个人信息保护法》的数据责任:AI辅助诊疗依赖海量医疗数据,若因数据泄露、滥用或违规采集导致患者权益受损,数据提供者(医疗机构)、数据处理者(开发者)需承担连带责任。例如,某AI公司将医院提供的患者影像数据用于算法训练但未脱敏,导致患者隐私泄露,开发者和医院需共同承担侵权责任。法律框架对责任分配的制度支撑3.《人工智能法(草案)》的特别规定:草案明确“高风险AI系统开发者需承担算法设计、训练、测试全过程的安全保障义务”,并将“医疗诊断”列为高风险领域。这为AI开发者设定了“事前预防性责任”——需通过算法测试、风险预警、持续监控等机制降低系统风险,否则需对因未尽到安全保障义务造成的损害负责。04人工智能辅助诊疗中多元主体的责任划分人工智能辅助诊疗中多元主体的责任划分AI辅助诊疗生态涉及开发者、医疗机构、医务人员、监管机构、患者等多方主体,其责任分配需厘清各主体的权责边界,构建“权责对等、风险共担”的协同机制。AI开发者的核心责任:技术安全与风险防控开发者作为AI系统的“缔造者”,需对系统的安全性、有效性承担源头责任,其义务贯穿AI全生命周期:AI开发者的核心责任:技术安全与风险防控算法设计阶段的“缺陷预防责任”-功能合规性:需确保AI系统符合国家医疗器械行业标准(如《医疗器械软件注册审查指导原则》),通过算法验证、临床试验证明其诊断准确率、灵敏度、特异度等性能指标不低于同类人工水平。例如,某AI肺结节检测系统需在临床试验中证明其假阳性率低于5%,否则不得投入使用。-可解释性设计:对高风险决策(如癌症诊断、手术方案推荐),需开发“算法解释模块”,以自然语言或可视化方式输出决策依据(如“判定为恶性结节的依据是结节边缘毛糙、分叶征,符合恶性影像特征”),确保医务人员与患者可理解决策逻辑。-偏见消除机制:在算法训练阶段,需对数据进行去偏处理(如增加罕见病、特定人种样本占比),并通过“公平性测试”验证不同子群体的诊断准确率无显著差异。若因数据偏差导致算法歧视,开发者需承担“设计缺陷”责任。123AI开发者的核心责任:技术安全与风险防控数据训练阶段的“质量控制责任”-数据来源合法性:需确保训练数据经患者知情同意,数据提供方(医疗机构)具备数据采集资质,严禁使用非法爬取、购买的医疗数据。例如,某AI公司使用未脱敏的电子病历数据训练模型,被法院认定违反《个人信息保护法》,需对患者隐私泄露承担赔偿责任。-数据标注准确性:需建立多级数据审核机制,由专业医师对标注结果进行复核,确保训练标签的准确性(如病理诊断结果与影像表现一致)。若因数据标注错误导致算法误诊,开发者需承担“训练数据瑕疵”责任。-数据更新与迭代:需建立动态数据更新机制,定期补充新病例数据以优化算法,避免因疾病谱变化、诊疗技术进步导致算法滞后。若因长期未更新数据造成“过时算法”误诊,开发者需承担“维护不当”责任。123AI开发者的核心责任:技术安全与风险防控产品交付与运维阶段的“风险预警责任”-用户培训与警示义务:需向医疗机构提供详细的使用手册、操作培训,明确AI系统的适用范围、局限性(如“本系统不适用于早期胃癌诊断,需结合胃镜检查”)、禁忌症及故障处理流程。若因未告知AI局限性导致医务人员过度依赖,开发者需承担“警示不足”责任。-实时监控与应急响应:需建立AI系统运行监控平台,实时监测算法性能(如诊断准确率、响应时间),当性能指标下降超过阈值时,需立即向医疗机构发出预警并推送更新补丁。若因监控缺失导致系统故障未及时处理引发损害,开发者需承担“运维失职”责任。-漏洞修复与召回义务:当发现算法漏洞或安全隐患时,需立即启动召回程序,并向监管部门报告。例如,某AI心电诊断系统因算法缺陷导致房颤漏诊率异常升高,开发者需在48内通知所有使用医院并暂停系统,否则需对扩大的损害承担赔偿责任。123医疗机构的管理责任:流程规范与质量把控医疗机构作为AI辅助诊疗的“应用主体”,需对系统引入、使用、监管全流程承担责任,确保AI与医疗流程深度融合而非简单“嫁接”:医疗机构的管理责任:流程规范与质量把控AI系统准入的“资质审核责任”-产品合规性审查:需核查AI系统的医疗器械注册证、临床试验报告、产品说明书等技术文件,确保其具备合法上市资质。严禁使用未经注册的“山寨AI”或超范围使用的AI系统(如将影像诊断AI用于病理诊断)。-临床适用性评估:需组织临床、医学工程、伦理等专家委员会,评估AI系统与本机构诊疗需求、患者特征的匹配度(如某基层医院的AI辅助诊断系统是否适用于常见病、多发病筛查,而非疑难杂症诊断)。若因未评估适用性导致AI系统“水土不服”,医疗机构需承担“管理失职”责任。医疗机构的管理责任:流程规范与质量把控临床应用中的“流程管控责任”-使用规范制定:需明确AI系统的使用场景(如“仅作为影像科医师的辅助工具,不得独立出具诊断报告”)、操作权限(如仅主治及以上医师可调用AI系统)、决策流程(如AI提示阳性结果后,需由上级医师复核确认)。若因未制定规范导致医务人员滥用AI,医疗机构需承担“制度缺失”责任。-质量监控与持续改进:需建立AI应用效果评估机制,定期统计诊断符合率、误诊漏诊率、临床反馈意见等数据,对表现不佳的系统及时暂停使用或要求开发者优化。例如,某医院使用AI辅助骨折诊断系统后,发现儿童患者误诊率达8%,需立即停止使用并联系开发者改进,否则需对未及时监控造成的损害承担连带责任。-应急处置预案:需制定AI系统故障(如宕机、误判)时的应急预案,明确人工介入流程、替代方案(如启用备用诊断系统、邀请多学科会诊)。若因应急预案缺失导致故障无法及时处理,医疗机构需承担“应急不力”责任。医疗机构的管理责任:流程规范与质量把控数据与隐私保护的“安全主体责任”-数据安全管理制度:需建立AI系统数据访问权限控制、数据加密存储、操作日志审计等制度,防止数据泄露、滥用或篡改。例如,某医院因AI系统数据库未设置访问密码,导致患者影像数据被外部黑客窃取,医疗机构需承担“数据安全管理不当”责任。-患者知情同意:在使用AI辅助诊疗前,需向患者告知AI系统的应用目的、决策依据、潜在风险(如“AI诊断可能存在误差,需结合医师判断”),并获取其书面同意。若因未履行告知义务侵犯患者知情权,医疗机构需承担“侵权责任”。医务人员的职业责任:独立判断与合理使用医务人员作为AI辅助诊疗的“最终决策者”,其核心义务是保持专业独立性,将AI作为“辅助工具”而非“决策替代品”,对诊疗结果承担最终责任:医务人员的职业责任:独立判断与合理使用AI结果的“复核与判断义务”-独立审慎评估:对AI给出的诊断建议、治疗方案,医务人员需结合患者临床表现、病史、检查结果等进行独立判断,不得盲目“照单全收”。例如,某AI系统将肺结核误判为肺癌,若医师未发现明显异常影像特征而采纳AI建议,延误患者抗结核治疗,医师需承担“未尽注意义务”责任。-异常结果溯源:当AI结果与临床直觉或既往诊断不一致时,需主动溯源(如重新调阅原始影像、复核检验数据),必要时申请会诊或使用其他检查方法验证。若因未对异常结果溯源导致误诊,医师需承担“疏忽大意”责任。医务人员的职业责任:独立判断与合理使用AI使用的“规范操作义务”-按说明书使用:需严格按照AI系统的使用规范操作,如输入正确的患者信息、选择合适的适配模块、避免超出适用范围使用。例如,将AI皮肤病诊断系统用于黏膜疾病诊断(系统未涵盖此功能)导致误诊,医师需承担“违规使用”责任。-及时反馈与记录:对AI系统的使用体验、误诊漏诊情况、改进建议等,需及时向医疗机构反馈并记录在病历中(如“AI提示肺结节,但结合患者症状及肿瘤标志物,考虑良性可能性大,建议3个月后复查”)。若因未记录AI使用过程导致纠纷无法厘清责任,医师需承担“举证不能”责任。医务人员的职业责任:独立判断与合理使用专业能力与“技术适应义务”-AI知识更新:需主动学习AI辅助诊疗的相关知识(如算法原理、局限性、操作技巧),不断提升对AI系统的理解与应用能力。例如,某医师因不了解AI系统的“假阳性率高”特性,频繁过度检查,造成患者损害,医师需承担“能力不足”责任。-拒绝不合理AI依赖:当医疗机构或上级医师要求过度依赖AI(如以AI诊断替代人工诊断)时,有权提出异议并坚持专业判断。若因被迫服从错误指令导致损害,医疗机构与指令下达者需承担主要责任,医师可减轻或免除责任。监管机构的规制责任:标准制定与监督执行监管机构作为“守门人”,需通过制定标准、审批监管、执法处罚等手段,引导AI辅助诊疗行业规范发展,平衡创新与安全:监管机构的规制责任:标准制定与监督执行标准体系的“顶层设计责任”-技术标准制定:需加快制定AI辅助诊疗算法性能、数据安全、可解释性、临床验证等方面的国家标准或行业标准,为产品研发与责任认定提供依据。例如,国家药监局发布的《人工智能医疗器械审评要点》,明确了AI算法的验证要求与风险等级划分。-伦理指南发布:需制定AI医疗伦理指南,明确AI应用的红线(如禁止将AI用于“非治疗性”的基因编辑、禁止算法歧视),为行业伦理实践提供指引。监管机构的规制责任:标准制定与监督执行产品上市的“审批把关责任”-分类分级监管:根据AI系统的风险等级(如低风险辅助决策类、高风险手术规划类)实施差异化审批,对高风险系统要求严格的临床试验与真实世界数据验证。例如,手术规划AI系统需通过临床试验证明其精准度不低于95%方可上市。-动态监管机制:对已上市AI系统实施“全生命周期监管”,要求定期提交性能报告,发现问题时及时启动飞行检查、责令整改或撤销注册证。监管机构的规制责任:标准制定与监督执行违法行为的“执法惩戒责任”-严厉打击违规行为:对未经审批擅自上市、虚假临床数据、故意隐瞒AI缺陷等行为,依法从严处罚(如高额罚款、吊销资质、追究刑事责任),形成有效震慑。-典型案例发布:定期发布AI辅助诊疗责任纠纷典型案例,明确责任划分规则,为行业提供参考。例如,某开发商因AI系统漏诊未及时召回被处罚500万元,并承担患者全部赔偿责任,此类案例可强化行业责任意识。患者的配合责任:知情同意与信息提供患者作为医疗服务的接受者,其配合义务是保障诊疗效果、合理分配责任的重要环节:1.如实提供信息的义务:需向医疗机构如实提供病史、症状、过敏史等信息,隐瞒或虚假信息可能导致AI诊断失误(如隐瞒糖尿病史使用AI药物推荐系统),患者需承担相应责任。2.理性理解AI的义务:需客观认识AI辅助诊疗的局限性,理解AI是“辅助工具”而非“万能机器”,不得因AI诊断结果不符合自身预期而拒绝合理治疗或无理投诉。3.隐私保护的义务:需同意医疗机构对自身医疗数据的使用(用于AI系统训练),但有权要求对敏感信息进行脱敏处理,若因自身过失(如泄露AI诊断报告)导致信息泄露,需自行承担责任。05人工智能辅助诊疗责任分配的特殊场景与应对人工智能辅助诊疗责任分配的特殊场景与应对在常规场景外,AI辅助诊疗还存在一些“边缘性”或“争议性”场景,需结合技术特性与临床实践进行针对性责任划分。紧急情况下的AI辅助决策:效率与责任的平衡在急救、重症监护等紧急情况下,医务人员可能依赖AI辅助决策(如AI预测脓毒症休克风险),因时间紧迫无法进行充分复核。此时责任划分需兼顾“抢救生命优先”原则与“风险可控”要求:1.AI系统的“紧急适用”前提:开发者在设计急救类AI系统时,需明确“紧急使用”的触发条件(如患者生命体征异常、需在10分钟内作出决策),并确保系统在紧急状态下的响应速度与准确率。若因系统响应延迟或误判导致抢救延误,开发者需承担主要责任。2.医务人员的“有限复核”义务:在紧急情况下,医务人员只需对AI结果进行“形式复核”(如检查AI输入的患者数据是否准确、是否存在明显矛盾),无需进行深度分析。若因未发现明显数据错误(如输入患者年龄为“80岁”但系统默认为“8岁”)导致误诊,医务人员需承担次要责任。紧急情况下的AI辅助决策:效率与责任的平衡3.医疗机构的事后追责机制:紧急情况过后,医疗机构需组织专家对AI决策过程进行复盘,明确责任主体并启动追责程序。若发现AI系统存在设计缺陷,需立即暂停使用并要求开发者整改。AI误诊与多因导致损害:责任份额的合理划分临床实践中,损害结果往往由多种因素共同导致(如AI误诊+患者未及时复诊+基础病进展),此时需运用“原因力理论”划分责任份额:1.AI原因力的认定:通过技术鉴定(如由第三方机构测试同类AI系统在相同病例中的准确率)、临床专家论证等方式,评估AI误诊在损害结果中的原因力大小(如“AI误诊占原因力的60%,患者未复诊占40%”)。2.混合过错的责任分担:若医务人员存在过错(如未复核AI结果)、患者存在过错(如隐瞒病情),需根据各方过错程度与原因力大小分担责任。例如,AI误诊占原因力50%,医师未复核占30%,患者未复诊占20%,则开发者承担50%责任,医疗机构承担30%责任,患者自行承担20%责任。AI误诊与多因导致损害:责任份额的合理划分3.连带责任与按份责任的区分:若损害因开发者(产品缺陷)与医疗机构(管理失职)共同造成,二者需承担连带责任;若损害因开发者、医务人员、患者混合过错造成,则按各自份额承担按份责任。AI与人类医生意见冲突:决策优先级的确定当AI诊断与医师意见不一致时,需建立“复核—会诊—决策”的递进流程,避免因决策冲突延误治疗:1.一级复核:AI与人工初步判断:由主治医师对AI结果与自身判断进行复核,若差异较小(如AI诊断为“轻度肺炎”,医师判断为“中度肺炎”),可结合临床经验调整治疗方案;若差异显著(如AI判定“良性”,医师判定“恶性”),需启动二级复核。2.二级复核:多学科会诊(MDT):由影像科、病理科、临床科室等多学科专家进行会诊,必要时再次使用其他AI系统或检查方法验证。会诊结果需记录在病历中,由科室主任签字确认。3.决策责任:以最终诊断为准:若经MDT确认AI正确,医师未采纳导致损害,医师需承担主要责任;若确认医师正确,开发者需承担“算法误判”责任;若无法明确,则根据“谁主张谁举证”原则,由医疗机构与开发者共同承担举证不能的责任。06人工智能辅助诊疗责任分配的挑战与未来路径人工智能辅助诊疗责任分配的挑战与未来路径尽管当前已初步构建AI辅助诊疗责任分配框架,但技术的快速迭代与临床实践的复杂性仍带来诸多挑战,需从制度、技术、行业协同等多维度探索解决路径。当前面临的主要挑战责任主体复杂性:多方共治下的“责任稀释”AI辅助诊疗涉及开发者、医疗机构、医务人员等多方主体,当损害发生时,易出现“人人有责、人人无责”的推诿现象。例如,某AI误诊纠纷中,开发者称“系统经医院验收合格”,医疗机构称“医师未按规范使用”,医师称“AI结果误导”,最终患者维权困难。当前面临的主要挑战法律适用滞后性:现有规则难以覆盖新技术场景我国现有法律未明确规定AI系统的“法律地位”(是否视为“法律主体”)、算法“黑箱”下的因果关系认定规则、AI迭代后的责任追溯期限等。例如,AI通过在线学习优化算法后,早期训练数据缺陷导致的新损害,开发者是否仍需承担责任?法律尚无明确答案。当前面临的主要挑战责任保险缺失:风险分担机制不健全目前国内尚未建立专门的“AI医疗责任险”,传统医疗责任险主要覆盖医师个人责任,对AI系统缺陷、数据泄露等新型风险承保能力不足。开发者与医疗机构因无法分散风险,可能抑制AI技术的研发与应用积极性。当前面临的主要挑战技术透明度不足:患者知情权与算法保护的冲突算法可解释性是责任认定的关键,但完全透明可能泄露开发者核心技术(如算法模型、训练数据),引发商业秘密泄露风险。如何在保障患者知情权与保护知识产权之间平衡,仍是行业难题。未来责任分配的优化路径构建“责任矩阵”明确权责边界由监管部门牵头,联合行业协会、医疗机构、开发者制定《AI辅助诊疗责任分配指引》,按“开发阶段—应用场景—损害类型”构建责任矩阵,明确各方在不同场景下的责任份额与追偿路径。例如,在“算法设计缺陷导致误诊”场景中,开发者承担80%责任,医疗机构承担20%责任(因未严格验收);在“医务人员违规使用导致误诊”场景中,医疗机构承担70%责任,医务人员承担30%责任。未来责任分配的优化路径推动法律法规的“动态更新”在《人工智能法》中明确AI系统的“准法律主体”地位,规定开发者需设立“AI风险准备金”用于损害赔偿;修订《民法典》增设

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论