GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练Transformer(GPT)、人工智能生成内容(AIGC)以及大语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于GPT/AIGC/LLM最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的贡献内容,现总结如下。
Security Papers
1. GPT 商店挖掘与分析
简介:本文深入研究了GPT商店,探讨了GPT模型的分类、受欢迎度影响因素和安全风险。研究首先评估了GPT模型的分类系统,随后分析了用户偏好、算法和市场趋势对GPT受欢迎度的影响。最后,研究识别了GPT商店的安全威胁并评估了安全措施的强度。研究结果旨在增进对GPT生态系统的理解,为生成性AI的未来研究和政策制定提供参考。
链接:
https://arxiv.org/pdf/2405.10210
2. 利用大语言模型进行自动化网页表单测试生成:一项实证研究
简介:本研究探讨了大语言模型(LLMs)在自动化网页表单测试生成中的应用。研究团队对11种LLMs在30个开源Java Web应用程序中的146个网页表单上进行了实证研究,发现不同LLMs在测试效果上存在差异。GPT-4、GLM-4和百川2在生成网页表单测试方面表现更佳,而其他模型在成功提交率上低于GPT-4,但高于GPT-3.5。研究还指出,当设计的提示包含完整且清晰的上下文信息时,可以生成更有效的测试。最后,研究提供了使用LLMs指导自动化网页表单测试的一些见解。
链接:
https://arxiv.org/pdf/2405.09965
3. 模拟政策影响:开发一种生成性情景写作方法以评估监管的感知效果
简介:本研究开发了一种利用大语言模型(LLMs)评估政策有效性的方法,通过GPT-4生成政策实施前后的情景,并将故事转化为基于人类感知的指标。研究以欧盟AI法案第50条透明度立法为例,生成了缓解和未缓解情景对,并进行了用户研究评估风险。结果显示,该立法在减轻劳动和福祉方面的危害上有效,但在社会凝聚力和安全方面效果有限。此方法有助于政策制定者和研究人员评估和迭代政策,以减轻AI带来的负面影响。
链接:
https://arxiv.org/pdf/2405.09679
4. Air Gap:保护注重隐私的对话智能体
简介:本文提出了一种新的隐私保护对话智能体AirGapAgent,以解决基于大语言模型(LLM)的智能体可能被第三方应用程序操纵上下文,泄露敏感信息的问题。AirGapAgent通过限制智能体仅访问特定任务所需的数据,有效防止了数据泄露。实验表明,该方法在保持智能体核心功能的同时,显著提高了用户数据保护能力,如对抗Gemini Ultra智能体的上下文劫持攻击时,保护成功率从45%提升至97%。
链接:
https://arxiv.org/pdf/2405.05175
5. 提高结构化金融中底层资产审查的效率和准确性:多智能体框架的应用
简介:本研究探讨了在结构化金融中应用人工智能(AI)来提高底层资产审查的效率和准确性。通过结合开源和闭源的大语言模型(LLMs),AI能够高效自动化贷款申请与银行对账单间的信息核对。闭源模型如GPT-4性能更优,而开源模型如LLAMA3则提供了成本效益高的替代方案。双智能体系统能进一步提升准确性,尽管成本较高。研究显示AI有助于减少人工错误,简化尽职调查流程,并在金融文件分析和风险管理中具有广泛的应用潜力。
链接:
https://arxiv.org/pdf/2405.04294
6. GPT赋能的网络安全培训:一种有效的定制意识提升方法
简介:本研究针对传统网络安全意识与培训(CSAT)计划的不足,提出了一种集成生成预训练变换器(GPT)的创新解决方案。该方案通过自然语言处理技术,根据个人学习档案定制培训内容,以提升参与度和培训效果。实验表明,GPT模型能够提供实时、自适应的CSAT体验,与传统方法相比,在提升参与度、动态性和内容相关性方面取得了显著进步。GPT驱动的CSAT计划是一种可扩展且有效的工具,能够为不同角色的个体提供个性化培训,帮助他们更好地应对网络安全风险。
链接:
https://arxiv.org/pdf/2405.04138