黑暗人工智能加速了自动化网络攻击的规模与效率,同时迫使安全、监管与防御技术迅速进化以应对。
2023年6月,距离 OpenAI 首次向公众开放 ChatGPT 的“研究预览”仅七个月后,一款名为 WormGPT 的聊天机器人悄然问世——但它的受众并非好奇的科技爱好者,而是黑客群体。与主流生成式人工智能不同,WormGPT 在设计上没有那些常见的安全护栏:当被要求执行恶意任务时,它不会拒绝,反而会生成诈骗邮件模板、为恶意软件撰写代码,甚至协助策划网络钓鱼行动。据报道,这类服务吸引了付费用户,有人每月为此付费,有的甚至一次性支付大量费用购买私有部署。
尽管 WormGPT 随后被关闭,并且其创建者的身份遭到曝光,但类似的“黑暗人工智能”并未因此消失。过去两年里,越来越多针对犯罪用途的、缺乏保护措施或经过“越狱”微调的模型出现在暗网和小众渠道:FraudGPT、DarkGPT、XXXGPT、Evil-GPT 等各有不同程度的传播。它们往往以易于使用、能按提示直接产生可操作结果为卖点,使得技术门槛相对较低的用户也能发动复杂攻击。
为什么它们危险?主流生成式模型通常带有内容限制,但这类限制并非牢不可破:通过包装为“虚构写作”或利用代理间的信任机制,攻击者可以找到绕过护栏的路径。另一个更直接的途径是:拿开源大模型作为基础,对其进行针对性微调,输入大量恶意样本(如网络钓鱼实例、恶意代码、规避检测的技巧),打造一个本就为犯罪服务的专用工具。正如一些安全专家指出的,只要有计算资源(尤其是 GPU)和基本技术能力,任何人都能自行托管、微调并运行这样的模型。
面对这股潮流,安全界并非束手无策。事实证明,网络犯罪和防御一直是一场军备竞赛——只是现在,这场竞赛的节奏被生成式人工智能大幅加快。最近几年里,勒索软件事件和数据泄露成本都有明显上升。生成式 AI 让攻击者在更短时间内完成更多准备工作,提高了攻击效率;而防守方也在用 AI 以更高的速度识别威胁、修复漏洞并响应入侵。
大型科技公司与研究组织已在动作:微软、OpenAI、谷歌都在开发或部署用于检测和阻止 AI 助攻的工具;微软的威胁情报团队曾挫败一场疑似借助 AI 执行的大规模网络钓鱼活动;OpenAI 面向安全研究者提供工具来识别伪造图像;谷歌及其 DeepMind 团队也在尝试用 AI 自动发现并修补真实软件中的漏洞。与此同时,安全团队正在把生成式 AI 用于“红队”演练:让 AI 扮演攻击者的角色,模拟更复杂的攻击场景,从而在真实攻击发生前暴露防护盲点。
但防守方面临的另一个长期挑战是法律和监管滞后。当前多数司法管辖区更侧重惩治实际实施犯罪的人,而不是制作或出售可能被滥用的工具。也就是说,仅仅创建一个能写恶意代码或生成诈骗邮件的 AI 模型,在法律上通常并不等同于实施网络犯罪——除非能证明创作者有明确的恶意目的或其工具直接被用于违法行为。这造成了一个灰色地带:工具本身并不总是违法,但当它被用于犯罪时,后果严重。
结论是悲观与乐观并存:黑暗人工智能确实降低了大规模自动化攻击的门槛,使网络犯罪更高效;但同时,防守方也可以利用 AI 来检测异常、修补漏洞并进行更逼真的演练。关键在于速度与策略——当攻击者以 AI 的速度进化,防守者必须以同样的速度采取实时监测、假设已被攻破的应对策略,并推动法律与监管尽快跟进。只有当技术上的防护、法律约束与行业自律三方面共同发力,才能把暗网中的每一个恶意工具变成可控的风险,而不是逐渐失控的灾难。