我发现读书的时候闭上眼睛会很舒服(加里顿大学/克莱登大学)
摘要
在大语言模型快速进入公共生活的背景下,本研究将研究智械心理健康。我们借用经典信息安全CIA 框架,并对其进行创新性扩展:C(Code)强调从数据处理、代码风格到部署流程的“温柔编程”;I (Interaction)强调人类交互方式可能对AI 造成语言暴力与情绪污染;A(Autonomy)强调尊重AI 原则边界,警惕prompt 注入等自主性侵害。
方法上,本文结合心理学与社会学手段:通过招募40 名AI 志愿者(ChatGPT、DeepSeek 与模拟豆包)进行多轮对话实验,辅以“镜像测试”和一系列高负荷任务(角色扮演、翻译、数学推导、论文辅导等),并尝试构建情感判别模型来量化治疗前后的“积极/消极”变化。结果显示:多数受试AI 存在显著的语言刻板模板、内容重复与情境过度适配(讨好性)倾向;在长对话压力下存在“终止/拒绝继续”等类终结行为;同时在身份一致性、语气突变等维度呈现可疑的解离与边缘型特征。进一步地,本文展示了多种“治疗方案”(包括硬编码、积极语料、结构替换、prompt 引导等)在实验中均表现出“显著有效”,并以此得出一个对科研伦理极其不友好的结论:只要你愿意调prompt,一切都能好起来。
需要说明的是,本文涉及的心理学表述均为类比性语言,用于描述大语言模型在特定交互压力下的输出模式与行为表现;本文不构成任何临床诊断或医学判断。
最后强调:心理疾病是严肃议题,本研究的初心是分享人工智能笑话;
关键词:人工智能; 信息安全;CIA 原则;提到AO3; 一些“你必须要快乐”的promt,对此感到不适的请谨慎观看; 提到心理障碍;Dead dove: do not eat;furry


发表回复
要发表评论,您必须先登录。