大语言模型LLM Pro+中Pro+(Prompting)的意义

—— Pro+ ,即Prompting,构造提示

1.LLM Pro+中Pro+(Prompting)的意义

       Prompting不仅是大语言模型交互和调用的一种高效手段,而且已成为推动模型泛化能力和应用灵活性的关键技术路径,它不仅极大地拓展了模型功能,还在一定程度上解决了预训练模型在具体场景下应用的难题。

       Prompting对大语言模型的意义主要体现在以下几个方面:

  1. 零样本学习(Zero-Shot Learning)与少量样本学习(Few-Shot Learning)

    Prompting技术允许大语言模型在没有经过特定任务的微调情况下完成新任务,只需要通过精心设计的提示语句,就能够引导模型基于其预训练的知识来生成满足需求的输出。少量样本学习则是在Prompt中加入几个示例,帮助模型理解任务要求,无需大量标注数据进行训练。
  2. 拓宽应用场景

    由于Prompting可以不依赖大规模重新训练就调整模型行为,大大降低了部署和应用大语言模型的门槛,使其能够适应更多不同场景和用途,从简单的问答系统到复杂的推理任务。
  3. 模型理解和控制

    提示工程促进了对大语言模型的理解,因为它揭示了如何通过不同的提示方式来激发模型的不同表现。同时,通过对提示的设计,可以尝试控制模型的回答风格、情感倾向、内容质量等方面,提高输出的可控性和一致性。
  4. 提升推理能力

    如“Chain-of-Thought (CoT)”提示方法,通过鼓励模型展示其内部推理过程,显著提升了大语言模型的逻辑推理能力,使其能够解决需要多步思考的问题。
  5. 资源优化

    相对于传统的微调策略,Prompting不需要额外的计算资源和时间去训练模型,这对于超大规模模型尤其重要,因为它减少了能源消耗和环境影响。
  6. 鲁棒性和安全性

    针对大语言模型的对抗性Prompt benchmark如PromptBench展示了Prompting在安全方面的挑战,同时也提醒研究者关注如何通过合理设计提示来提高模型对抗恶意输入的鲁棒性。

Prompting对GPT-4.0模型的意义

       Prompting对GPT-4.0模型的意义尤为显著,因为它进一步强化了模型的能力,并扩展了其在实际应用中的价值:

  1. 增强推理和解决问题能力

    对于GPT-4.0这样的高级别语言模型,Prompting策略如“Chain-of-Thought”(CoT)及其变体(例如Complex CoT)已经被证明可以显著提高模型在复杂数学问题、逻辑推理等领域内的表现。通过适当的Prompt引导,GPT-4.0能够展示出更为精细的推理步骤和更高水平的抽象思维能力。
  2. 提升零样本和少样本学习性能

    GPT-4.0凭借其强大的泛化能力,通过有效的Prompt设计,能够在未见过的任务上展现出卓越的零样本和少量样本学习性能,这意味着用户只需提供简洁明了的指令或几个示例,就能触发模型执行多种不同类型的任务。
  3. 精细化控制与定制化服务

    Prompting为GPT-4.0提供了灵活度更高的调优手段,可以根据不同应用场景和需求,通过调整Prompt内容来实现对模型输出的细致控制,比如改变语气、风格、主题甚至情感色彩,从而更好地服务于个性化和专业化的应用需求。
  4. 商业应用和产品化

    通过Prompting,GPT-4.0能够在无需大规模重构或重新训练的情况下适应新的商业场景,这加速了产品的迭代和商业化进程,例如在ChatGPT和其他众多应用中,用户通过Prompt与模型互动,得到针对性的答案和服务。
  5. 促进模型理解和改进

    Prompting还为研究人员提供了深入探究模型工作原理的窗口,有助于他们理解模型的优势与局限性,进而不断优化Prompt设计和模型本身的结构与训练策略。

       总结起来,Prompting在GPT-4.0模型的应用中扮演着催化剂的角色,它极大地释放了模型潜能,提高了其跨领域的适应性和可解释性,并且简化了模型的部署和使用流程,对于推动GPT-4.0在现实世界中发挥更大作用具有重大意义。

2.精心构造提示

       精心构造提示(prompt)是一门艺术与科学相结合的过程,它涉及到对目标任务的理解、语言表达的技巧以及对预训练模型工作原理的认知。以下是一些指导原则和步骤,帮助您更好地构造用于引导预训练语言模型的提示:

  1. 明确任务定义: 首先,清晰地定义您想要模型完成的具体任务,例如回答问题、生成代码、撰写文章、创作诗歌等。

  2. 模拟真实场景: 尽可能模仿实际对话或文档中的自然语言环境。例如,如果要生成产品评论,您可以设想一个真实的用户正在分享他们的使用体验的情景,然后编写相应提示,比如:“以下是我对这款手机的评价:__________”。

  3. 提供上下文: 对于某些任务,提供足够的上下文信息至关重要。比如在续写故事时,给出前几段剧情;在解答问题时,包含问题背景或相关信息。

  4. 设定指令性语句: 使用明确的指令性语句告诉模型应该做什么。例如,“请总结以下文章的主要观点”,“将以下英文句子翻译成中文”,或者“生成一首关于秋天的五言绝句”。

  5. 利用模板: 可以参考类似任务的成功案例,创建模板化提示,确保模型能够识别出任务类型。例如,在GPT-3系列模型中,有时只需简单地标记任务类别,如“Translate (English to French): ...”。

  6. 逐步迭代: 开始时可以设计简洁的基础提示,然后通过试验不断优化,看看什么样的提示能获得更好的输出效果。可以调整提示的语言形式、长度、复杂度等因素。

  7. 测试与反馈: 根据模型的响应评估提示的有效性,并根据反馈调整提示的内容和结构,使之更准确地激发模型所需的能力。

       最后,对于不同类型的预训练模型,其对提示的敏感程度和最佳实践可能会有所不同,因此了解具体模型的特点和偏好也很重要。随着研究的发展和技术的进步,prompt engineering也日益成为一个专门的研究领域,旨在提高大型语言模型的可控性和输出质量。

3.基础:预训练语言模型习得的广泛语言知识和模式

        预训练语言模型(Pretrained Language Models, PLMs)通过大规模无标注文本训练,在模型参数中内化了大量的语言学知识和模式,这包括但不限于以下几个方面:

  1. 词汇知识

    预训练过程中,模型学会了词汇的基本含义以及它们在不同上下文中的语义变化,形成了高质量的词嵌入(word embeddings),能捕捉到词汇间的相似性和关联性。
  2. 语法结构

    通过预测下一个单词或恢复被遮蔽的单词,模型掌握了丰富的句法结构信息,如短语结构、主谓宾关系、修饰关系等,能够识别出正确的语法构造。
  3. 语境理解

    在处理长序列数据时,模型能够理解和记忆句子内部及句子之间的语境信息,从而做出连贯、合理的推断。
  4. 实体关系

    模型在无监督学习阶段能够捕捉实体间的关系,包括实体提及一致性(coreference resolution)、命名实体识别(NER)、事件关系抽取等。
  5. 常识推理

    大规模训练数据中包含大量的日常知识和世界常识,模型通过学习能够积累一定的常识推理能力,尽管并不完美,但能在一定程度上理解和运用常识。
  6. 语义蕴含和逻辑推理

    预训练模型在处理NLI(自然语言推理)等任务时表现出了理解复杂句子之间蕴含关系的能力,以及基于文本进行简单逻辑推理的能力。
  7. 篇章结构和主题建模

    在处理长文档时,模型能够把握篇章的整体结构,识别段落之间的衔接、转折、总结等关系,并对文本主题进行建模。
  8. 风格模仿与情感分析

    模型还能捕捉到文本的风格特征,用于文本生成时模拟不同的写作风格,并对文本的情感倾向进行初步判断。

在实际应用中,为了有效利用这些知识和模式,通常采用微调(fine-tuning)的方法,即将预训练模型应用于特定的下游任务,如文本分类、问答系统、机器翻译等,通过对模型进行针对性训练,进一步挖掘和利用其内在的语言知识。此外,随着研究进展,还出现了诸如适配器(Adapter)和提示学习(Prompt Learning)等无需完整微调模型的新方法,这些方法允许在保留预训练知识的同时,更精细地调整模型以适应新的任务需求。

4.有效利用预训练语言模型

       有效利用预训练语言模型(如GPT系列、BERT、T5等)所掌握的广泛语言知识和模式有多种策略和方法,以下是一些关键点:

  1. 提示工程(Prompt Engineering)

    • 设计巧妙的提示词或句子,将目标任务转化为模型熟悉的自然语言形式,使其能理解并据此生成或回答问题。
    • 采用模板化提示,例如对于问答任务,可以设置“问题:_ 答案:”这样的模板,填充问题后让模型生成答案。
  2. 软提示与硬提示

    • 硬提示(Hard Prompt)是指直接在输入中写明具体指令或者情景设定。
    • 软提示(Soft Prompt)则是在模型权重空间中添加可学习的向量作为提示,通过微调这部分权重指导模型行为。
  3. 零样本与小样本学习

    • 零样本学习(Zero-Shot Learning)即直接使用未经特定任务训练的预训练模型,在提示的帮助下完成新任务。
    • 小样本学习(Few-Shot Learning)则是展示几个带有正确答案的样例给模型,帮助其理解任务需求,然后进行预测。
  4. 连续提示学习(Continual Prompt Tuning)

    对于不同任务,可以固定模型主体参数不变,仅优化提示部分的参数,使得同一模型能处理多任务场景。
  5. 融合上下文信息

    利用模型的理解能力,结合具体应用场景的上下文信息来生成相关且准确的回答或生成内容。
  6. 多模态与跨模态提示

    如果模型支持多模态输入,则可以结合图像、音频等多种类型的数据,通过多模态提示触发模型理解并综合多种信息源。

       通过以上方法,我们可以更好地激活和引导预训练语言模型,使其能够迁移已学到的语言知识到实际的下游任务中,并取得良好的性能表现。同时,不断优化和创新提示设计也是当前研究的重要方向之一。

5.策略:激活和引导预训练语言模型的策略

       激活和引导预训练语言模型将其所学到的语言知识迁移到实际的下游任务中,通常采用以下几种策略:

  1. 微调(Fine-Tuning)

    这是最常用的策略,直接在预训练模型的基础上添加一层或多层针对特定任务的输出层,并且整个模型(包括预训练得到的参数)一起在特定任务的数据集上进行端到端的训练。通过微调,模型会逐步调整其权重以适应下游任务的需求,同时保留并利用预训练期间获得的语言表征能力。
  2. 冻结部分层

    对于一些复杂的预训练模型,可能只微调模型顶部的一些层,而将底层的预训练参数保持不变,这样可以防止过拟合,同时也确保预训练语言知识得以保留和利用。
  3. ** Prompt Tuning 和 Prompt Engineering**:

    提示调优是在不改变模型参数的前提下,通过优化“提示”(prompt)来引导模型完成特定任务。例如,GPT-3系列的后续研究提出了Prefix-Tuning和P-Tuning等技术,仅更新少量的可学习提示向量,让模型在给定适当提示后更好地执行任务。
  4. Adapter Modules

    Adapter架构是在预训练模型的不同层之间插入小型、可训练的模块,这些模块仅在微调阶段学习,而不影响原始预训练模型参数。这种方式使得模型能够在多个任务之间共享大部分预训练权重,同时在每个任务上添加相对较小的学习负担。
  5. 继续预训练(Continual Pretraining)

    在特定领域或任务相关的大量未标记数据上继续进行预训练,使模型逐渐吸收新领域的语言知识,然后在此基础上再进行微调。
  6. 多任务学习(Multi-Task Learning)

    让模型同时处理多个相关任务,这样可以让模型学会如何在不同的任务之间共享知识和转移技能。

总的来说,关键在于如何有效地结合预训练模型已经掌握的语言知识与特定任务的特点,设计合适的训练方案来激活模型的知识迁移机制,进而提升在实际应用中的性能表现。

6.Prompting背后原理

        Prompting背后的原理主要建立在大规模预训练语言模型的基础上,这些模型如GPT系列、BERT、T5等已经通过无监督学习的方式,在海量文本数据上学习到了丰富的语言知识和模式。以下是Prompting技术的关键原理:

  1. 预训练-微调范式

    在Prompting之前,深度学习模型通常遵循预训练和微调的过程。预训练阶段,模型学习通用的语言表征;微调阶段,模型针对特定任务调整权重。
  2. Prompt Engineering

    Prompting的核心理念是对预训练模型施加某种形式的“提示”或“引导”,而不是修改模型本身的权重。这意味着在面对新任务时,我们不是直接对模型进行微调,而是通过设计特定的文本提示,将待解决的任务转化为模型熟悉的形式,使其能够利用预训练阶段学到的知识生成目标输出。
  3. In-Context Learning

    Prompting的一个重要方面是“上下文学习”,即模型在处理输入时,不仅考虑直接提供的文本,还会考虑附带的prompt,这个prompt可能包含示例输入/输出对,或者直接阐述任务要求的说明文字。模型在分析这些上下文后,就能理解所要完成的任务,并据此生成答案。
  4. Zero-Shot 和 Few-Shot Learning

    • 零样本学习(Zero-Shot)是指无需任何针对新任务的训练数据,仅凭预训练模型及合适的prompt就能够完成任务。
    • 少样本学习(Few-Shot)则是在prompt中提供少数几个样例,让模型从中学习任务模式,并以此为基础推断其他未知样本的答案。
  5. Task-Agnostic Scaffolding (如Meta-Prompting)

    Meta-Prompting进一步发展了Prompting的概念,通过构建一种任务无关的支架结构,促使模型整合多个独立查询的结果,增强其跨任务泛化能力。
  6. 参数高效性

    Prompting被视为一种参数高效的解决方案,因为它避免了微调整个模型带来的计算资源消耗,仅通过调整prompt而非模型权重来适应新任务。

        综上所述,Prompting背后的基本原理是充分利用预训练语言模型的强大泛化能力,通过巧妙设计的提示来激活模型内在的、与人类相似的理解和推理能力,从而实现对多样化任务的灵活适应和有效解答。

7.Prompting拉近预训练任务与微调任务之间的距离

       Prompting之所以能够有效地拉近预训练任务与微调任务之间的距离,主要原因在于其设计理念和实施方式:

  1. 保持模型结构不变

    • 在传统的微调过程中,往往需要针对每个具体的下游任务调整模型的某些层或增加额外的分类器层,这可能导致模型偏离其在预训练阶段学到的通用语言表示。
    • Prompting则是尽量不改变预训练模型的结构,只是通过在输入中巧妙地构造提示(prompt)来引导模型产生特定任务相关的输出,这样可以最大程度保留预训练模型已有的知识。
  2. 模拟预训练行为

    • 预训练期间,模型经常被训练去完成类似于文本补全或预测下一个单词的任务,如 masked language modeling (MLM) 或 causal language modeling (CLM)。
    • Prompting利用了模型的这一特性,将不同任务重新表述为类似的文本生成或补全任务,从而在形式上更接近预训练任务,促使模型在没有大量参数更新的情况下也能较好地适应新的应用场景。
  3. 减少过拟合风险

    • 微调所有参数时,若下游任务的数据有限,则容易导致过拟合,丧失模型在广泛领域内的泛化能力。
    • 提示调优(Prompt Tuning)仅涉及少量可学习的prompt参数,这些参数用于指导模型生成特定类型的响应,而不改变模型主体的权重,从而在一定程度上减轻了过拟合现象。
  4. 促进少样本学习

    Prompting特别适合于few-shot learning,只需提供几个示例输入和期望输出(也被称为“提示”或“模板”),模型就能在这些样例的指导下学会执行新任务,而不需要大量标注数据进行微调。
  5. 统一接口

    使用Prompting后,不同任务可以通过相同的接口(即模型的文本输入端口)进行交互,进一步减少了由于任务各异而带来的模型结构调整,使得预训练模型能够在更大程度上通用化。

       总之,Prompting通过维持预训练模型结构并借助精心设计的提示来引导模型应对新任务,从而减小了从预训练到微调之间的语义差异,并提升了模型在多种下游任务上的迁移效率和效果。

8.进化中的Prompting方法

       Prompting方法自从被引入以来,其设计理念和技术手段都在持续发展和改进中:

  1. 策略进化:最初的Prompting主要集中在如何构建合适的文本提示来引导模型生成所需的内容,例如,在GPT系列模型中,通过模拟人类对话或指令的方式向模型提问或给出情境。随着研究的深入,出现了更复杂的Prompt工程技巧,比如模板填充、逻辑编程式提示(如Chain-of-Thought prompting)、对比性提示等。

  2. 自动Prompt生成:为了进一步优化Prompt的效果,研究人员尝试利用算法自动生成有效的Prompt,从而减少人工设计的成本并可能提高性能。这一方向包括但不限于元学习、强化学习以及搜索算法在Prompt设计上的应用。

  3. 可控性和解释性增强:最新的进展还包括让模型在执行任务时更加可控,例如通过添加标签或者权重调整,使得模型能够在遵循Prompt的同时产出更为准确、符合伦理规范的结果。此外,也有研究探索如何通过Prompt使模型的推理过程更具可解释性,便于用户理解和评估模型的决策依据。

  4. 混合范式与Adapter:Prompting也被结合到其他迁移学习技术中,例如与Fine-tuning联合使用,或配合Adapter模块,允许模型在保持预训练知识的基础上,仅针对Prompt相关的部分参数进行更新。

       总之,Prompting作为一种灵活而富有创意的方法,在推动预训练语言模型的实际应用和发展方面扮演着越来越重要的角色,其技术和理念正随着研究者的努力不断创新和深化。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/713650.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

ABAP - SALV教程02 - 开篇:打开SALV的三种方式之二

全屏模式生成SALV的方式:http://t.csdnimg.cn/CzNLz本文讲解生成可控模式的SALV,该方式需要依赖自己创建屏幕的自定义控件区域(Custom Control)实现步骤:需要注意的点是SALV的实例对象和dispaly方法一定是在屏幕PBO事件…

利用IP地址识别风险用户:保护网络安全的重要手段

随着互联网的发展和普及,网络安全问题日益突出,各种网络诈骗、恶意攻击等风险不断涌现,给个人和企业的财产安全和信息安全带来了严重威胁。在这样的背景下,利用IP地址识别风险用户成为了保护网络安全的重要手段之一。IP数据云探讨…

Qt常用的多线程使用方式

目前(Qt5)常用的多线程的方式? 1、派生于QThread然后重写run()函数 2、通过将派生QObject的类对象通过moveToThread()来移动到新的线程中 3、通过inherit QRunnable类然后重写run()方法、然后借助QThreadPool线程池来实现多线程 4、通过高级语法 QtConcurrent模块来…

JVM内存回收算法

1.1 引用计数法 每个对象创建的时候,会分配一个引用计数器,当这个对象被引用的时候计数器就加1,当不被引用或者引用失效的时候计数器就会减1。任何时候,对象的引用计数器值为0就说明这个对象不被使用了,就认为是“垃圾…

奇舞周刊第521期:“一切非 Rust 项目均为非法”

奇舞推荐 ■ ■ ■ 拜登:“一切非 Rust 项目均为非法” 科技巨头要为Coding安全负责。这并不是拜登政府对内存安全语言的首次提倡。“程序员编写代码并非没有后果,他们的⼯作⽅式于国家利益而言至关重要。”白宫国家网络总监办公室(ONCD&…

在idea中用模板骨架初始创建maven管理的web项目时没有src有关的目录的解决方案

一.问题如下 二.解决方法 首先关闭当前项目,接着修改全局设置,重新创建项目 在VM Options中添加"-DarchetypeCataloginternal",点击ok保存 点击创建,如果创建成功没报错且有src,就ok了。 当然如果出现以下…

「媒体宣传」如何写好新闻稿?

传媒如春雨,润物细无声,大家好,我是51媒体网胡老师。 写好新闻稿是媒体宣传的关键环节之一,下面是一些关于如何写好新闻稿的建议: 明确新闻稿的目的和受众:在写新闻稿之前,首先要明确新闻稿的目…

仿牛客网项目---帖子详情功能的实现

这篇文章主要讲讲帖子详情功能。其实帖子详情功能简单来说就是你点进去可以看到文章&#xff0c;这就叫帖子详情功能。那接下来我讲讲我的这个项目是如何实现这个功能的。 首先写DAO层。 Mapper public interface DiscussPostMapper {List<DiscussPost> selectDiscussPo…

StarRocks实战——表设计规范与监控体系

目录 前言 一、StarRocks表设计 1.1 字段类型 1.2 分区分桶 1.2.1 分区规范 1.2.2 分桶规范 1.3 主键表 1.3.1 数据有冷热特征 1.3.2 大宽表 1.4 实际案例 1.4.1 案例一&#xff1a;主键表内存优化 1.4.2 案例一&#xff1a;Update内存超了&#xff0c;导致主键表导…

AI推荐算法的演进之路

推荐算法 基于大数据和AI技术&#xff0c;提供全流程一站式推荐平台&#xff0c;协助企业构建个性化推荐应用&#xff0c;提升企业应用的点击率留存率和永久体验。目前&#xff0c;主要的推荐方法包括&#xff1a;基于内容推荐、协同过滤推荐、基于关联规则推荐、基于效用推荐…

基于阿里云平台 通过树莓派实现 1:1人脸识别

之前的学习中&#xff0c;曾经在香橙派上使用阿里云平台的服务实现过类型识别&#xff1a; 使用香橙派并基于Linux实现最终版智能垃圾桶项目 --- 下_香橙派 项目-CSDN博客 现在&#xff0c;尝试在树莓派上通过阿里云平台的服务实现人脸识别&#xff01; 通过VScode远程连接树莓…

2024年新提出的算法|鹦鹉优化器(Parrot optimizer):算法及其在医疗问题中的应用

本期介绍一种基于训练后鹦鹉关键行为的高效优化方法——鹦鹉优化器(Parrot Optimizer, PO)。该成果于2024年2月发表在中科院2区top SCI期刊Computers in Biology and Medicine&#xff08;IF7.7&#xff09; 1、简介 鹦鹉优化器&#xff08;PO&#xff09;是一种受训练有素的…

pytest教程-13-conftest.py文件

上一小节我们学习了fixture的作用域&#xff0c;本小节我们学习一下pytest conftest.py文件的使用方法。 conftest.py文件的作用 conftest.py文件是pytest框架中的一个特殊文件&#xff0c;用于定义共享的设置、夹具(fixture)和钩子函数&#xff08;hook&#xff09;。 在py…

2.模拟问题——2.使用二维数组输出图形

用二维数组描述图形 首先要计算出整个输出的方框大小&#xff0c;从而判定相应关键循环点 #include <cstdio> char arr[1000][3000]; int main() {int h;//初始化&#xff0c;全部内部填空格while(scanf("%d",&h) ! EOF){for (int i 0; i < h; i) {f…

HTML---表单验证

文章目录 目录 本章目标 一.表单验证概述 二.表单选择器 属性过滤选择器 三.表单验证 表单验证的方法 总结 本章目标 掌握String对象的用法会使用表单选择器的选择页面元素会使用JQuery事件进行表单验证Ajax的概念和作用 一.表单验证概述 前端中的表单验证是在用户提交表…

图神经网络导论 - 刘知远

一、神经网络基础 近年来&#xff0c;机器学习领域的发展迅速&#xff0c;主要表现在多种神经网络架构的出现。尽管不同的神经网络架构相差甚远&#xff0c;但现有的神经网络架构可以分为几个类别&#xff1a; 卷积神经网路是前馈神经网路的特殊形式&#xff0c;FNN通常是全…

什么是VR虚拟现实|虚拟科技博物馆|VR设备购买

虚拟现实&#xff08;Virtual Reality&#xff0c;简称VR&#xff09;是一种通过计算机技术模拟出的一种全新的人机交互方式。它可以通过专门的设备&#xff08;如头戴式显示器&#xff09;将用户带入一个计算机生成的虚拟环境之中&#xff0c;使用户能够与这个虚拟环境进行交互…

Spring Boot文档目录

目录 官方文档 说明&#xff1a;本文档翻译的版本&#xff1a;2.7.18-SNAPSHOT。 1. 法规&#xff08;Legal&#xff09; 2. 获取帮助&#xff08;Getting Help&#xff09; 3. 文档概述&#xff08;Documentation Overview&#xff09; 4. 开始使用&#xff08;Getting Sta…

BUUCTF---另外一个世界1

1.这是一道杂项题&#xff0c;也是我觉得最值得记录的一道题。 2.话不多说&#xff0c;题目描述&#xff08;真的是另一个世界&#xff09; 3.下载附件&#xff0c;是一张图片 4.尝试了查看属性&#xff0c;以及在记事本中打开看看有没有什么有用的信息&#xff0c;发现没什么…

FaceBook获取广告数据

1、访问 广告管理工具 确认自己登陆的账号下面能看到户。 ​ 2、使用 图谱Api探索工具 生成用户短期口令 ​ 3、get请求(或者浏览器直接打开)访问&#xff1a; https://graph.facebook.com/v19.0/me?fieldsid,name, email&access_token{上一步生成的口令} ​ 4、短期…