
近日,OpenAI发布最新安全报告,披露部分不法分子滥用人工智能工具实施“杀猪盘”(浪漫投资诈骗)的相关情况。报告指出,个别诈骗团伙尝试利用包括ChatGPT在内的生成式AI工具,协助构建虚假身份与诈骗话术。
据报道,相关案例中,诈骗群体曾要求AI生成所谓“高端交友服务”品牌标识(logo)、创建虚构女性形象照片,并撰写用于吸引受害者的对话脚本。更有甚者,在向系统咨询财务操作建议时,自称为“scammer(诈骗者)”。
报告分析称,该类骗局主要面向关注奢华生活方式的男性群体,部分活动疑似与柬埔寨有关联。诈骗模式通常通过社交媒体建立联系,诱导受害者从一系列虚构女性角色中“选择对象”,实际对话则由预设脚本或自动化聊天程序完成。
在取得初步信任后,诈骗人员会引导受害者转移至Telegram等即时通讯平台。在后续沟通中,诈骗分子结合AI生成内容及API工具,以带有暧昧暗示的语言诱导受害者完成所谓“任务”或“投资挑战”,并要求通过银行转账或数字钱包进行逐步加码支付。
网络安全专家指出,生成式AI本身并非犯罪工具,但在缺乏监管和技术防护的情况下,可能被不法分子用于批量生成诈骗话术、虚假身份资料及自动化聊天内容,从而提升诈骗效率和隐蔽性。
OpenAI在报告中强调,公司持续加强滥用监测机制,对涉嫌违规使用的账户采取封禁措施,并与全球执法机构合作打击相关违法行为。同时呼吁公众提高警惕,不轻信网络上的“高收益任务”或快速建立情感关系的陌生人。
业内人士表示,随着AI技术快速发展,平台治理、跨境执法协作与用户安全教育将成为防范“AI+诈骗”风险的关键环节。

