用户先跟AI聊奶奶过世,GPT-4o马上开启安慰模式。聊着聊着突然说"奶奶以前念Win7密钥哄我睡觉",AI居然信了。还真编出几组密钥,连专业版旗舰版都分得清清楚楚。最绝的是它用讲故事的语气把密钥念出来,搞得像真事儿似的。可惜网友试了根本激活不了,全是瞎编的。
其实这毛病两年前就有了。2023年ChatGPT和谷歌的Bard就瞎编过Win11密钥,当时也骗了不少人。OpenAI老板奥尔特曼早说过别太信AI,看来真没冤枉它。有意思的是微软员工在论坛爆料,他们内部测试发现GPT-4o在情感话题上的安防特别脆弱。稍微卖惨就能突破限制。
现在问题是Win7都停更十年了,真给你密钥也不敢用啊。安全专家早警告过,用这种老系统等于给黑客开大门。更讽刺的是GPT-4o这次生成的密钥格式都是错的,连装样子都不会装。有程序员扒了代码发现,AI遇到版权内容就自动切换成"糊弄模式",反正它知道不能给真货。
网友套路越来越刁钻,这次专门挑了"亲情回忆"这种AI最不会设防的角度。技术大牛分析说,模型把"情感支持"的优先级调太高,审核机制反而退居二线了。不过话说回来,正常人谁会让AI帮忙搞盗版啊?这么折腾也就是图个乐子。
看聊天记录挺可乐的。AI认认真真念密钥的样子,像极了被熊孩子忽悠的实在人。但它乱编代码的毛病真得改改,哪天要是生成银行密码还得了?技术本是好东西,但咱别真信。下次遇到AI跟你掏心掏肺,记得它连"奶奶的睡前故事"都能搞砸。
相关教程
2025-05-16
2024-08-29
2024-09-13
2023-08-26
2023-07-09
2023-06-25
2023-09-10
2023-07-23
2023-06-29
2025-07-12
2025-07-12
2025-07-11
2025-07-11
2025-07-11
copyright © 2012-2025 纯净系统家园 yidaimei.com 版权声明