初识ChatGPT

初识ChatGPT

AIGC这么火热,了解一下?本文主要通过ChatGPT整理了人工智能和GPT相关的很多概念,看完之后,应该能瞥见人工智能的冰山一角。

参考

  • GPT-4预示着前端开发的终结?你准备好面对无法预测的技术挑战了吗?
  • ChatGPT背后竟然是这么搞的,不可思议!,可以读一下

1. 注册

总会有办法,就不多说。

2. 人工智能AI

人工智能(Artificial Intelligence, AI)涵盖了包括机器学习在内的多个技术和方法,旨在使计算机能够理解、学习、推理、决策和与环境交互等。

可以简单地理解为让计算机具有类似人类智能的能力,就像人类可以思考、学习、理解语言、做决策等一样,人工智能也可以通过编程和算法让计算机实现类似的智能行为。

2.1. 机器学习

机器学习(Machine learning)是人工智能的一个具体实现方式,是一种通过从数据中学习和改进性能的方法,而不是通过明确编码规则或规则库来进行自动化的任务。

机器学习使得计算机系统可以通过从大量数据中学习并不断优化模型来自主地进行预测、分类、识别、决策等任务,而无需人工明确地编写特定的规则。

机器学习是实现人工智能的关键技术之一,它为人工智能系统赋予了从数据中获取知识和进行智能决策的能力。在许多人工智能应用领域,如自然语言处理、图像识别、语音识别、推荐系统、自动驾驶等,机器学习都发挥着重要的作用。

当然,人工智能也不仅仅局限于机器学习,还包括了其他的技术和方法,如专家系统、知识表示与推理、逻辑推理、规划和决策等。这些方法在某些场景下仍然具有重要作用,而不仅仅依赖于数据驱动的机器学习。

2.2. 人工神经网络

人工神经网络(Artificial Neural Networks, ANN)是一种模拟人脑神经系统结构和功能的计算模型,它可以用于实现机器学习任务,是机器学习中的一种重要技术。

在机器学习中,人工神经网络被用作模型或算法的一部分,用于从数据中提取特征、学习模式、进行预测或做出决策。神经网络可以通过对大量数据进行训练来调整其权重和参数,从而自动地学习任务的复杂关系和模式。

人工神经网络通常由多个神经元(节点)组成,这些神经元通过连接权重和激活函数的方式相互连接。数据通过这些连接传递,并在神经网络中进行处理和传递,从而产生输出结果,从而实现对复杂问题的建模和预测。

人工神经网络通常包含三个主要组件:

  1. 输入层:负责接收原始数据作为网络的输入。
  2. 隐藏层:负责对输入数据进行特征提取和转换,通过多层隐藏层可以形成深度神经网络。
  3. 输出层:负责生成网络的输出结果,通常用于进行分类、回归或其他预测任务。

人工神经网络通过在训练过程中自动学习数据的特征表示和模式,从而能够在大规模的数据中识别出复杂的关系。训练过程中,网络通过反向传播算法不断调整网络中的权重和偏置,从而优化网络的性能。

2.3. 深度神经网络

深度神经网络(Deep Neural Network, DNN)是一种人工神经网络的形式,它包含多个层次(深度)的神经元(节点)连接,用于处理复杂的数据特征表示和进行高级的模式识别。

深度神经网络是一种层次化的模型,由多层神经元组成,每一层都可以对输入数据进行特征提取和转换。每一层的输出作为下一层的输入,从而形成了一种层层传递的结构。深度神经网络通常包含输入层、隐藏层和输出层,其中隐藏层可以包含多层,从而形成深度结构。

深度神经网络在处理复杂数据任务上具有强大的能力,例如图像识别、语音识别、自然语言处理、语音合成等。深度神经网络通过在训练过程中自动学习数据的特征表示,从而能够在大规模的复杂数据中识别出高级的模式和特征。

深度神经网络的训练通常需要大量的标注数据和高性能计算设备,例如图形处理器(GPU)等。

2.4. 深度学习

深度学习是一种机器学习方法,,其基于人工神经网络和深度神经网络的思想,模仿人类大脑的工作方式,通过多层神经网络进行数据处理和学习。

通俗地说,深度学习就是让计算机通过多层神经网络自动从大量数据中学习,从而能够进行高级的数据表示、特征提取和模式识别。

深度学习中的神经网络通常由多层神经元组成,每一层都负责对输入数据进行一些特定的处理,然后将处理结果传递给下一层。这样多层的结构使得深度学习模型能够逐层地提取和抽象输入数据中的特征,从而能够自动学习到更加复杂和高级的表示。深度学习模型通常需要大量的标注数据来进行训练,通过不断调整网络权重和参数,使得模型能够从数据中学习到合适的特征表示和模式识别规律。

2.5. 强化学习

强化学习(Reinforcement Learning, RL)是一种机器学习方法,类似于人类通过试错和反馈机制来学习的过程。通俗地说,强化学习就是让计算机通过不断尝试和从环境中获得反馈,从而自动学习如何做出最优的决策。

在强化学习中,计算机通常被称为智能体(Agent),它通过与环境进行交互来进行学习。智能体可以采取不同的动作(Actions)来影响环境,环境会返回一个反馈信号(Reward)作为对智能体动作的评价。智能体根据这些反馈信号来调整自己的决策策略,从而在不断尝试中逐渐学习到最优的动作选择。

强化学习常用于需要在动态、复杂和未知环境中做决策的问题,如自动驾驶、机器人控制、游戏策略等。强化学习的核心目标是让智能体通过自主学习和不断优化,从而在不断变化的环境中做出最优的决策,以实现预定的目标。

强化学习在人工智能领域具有重要应用价值,也是人工智能研究领域的热门方向之一。

2.6. 监督学习

监督学习(Supervised Learning)是一种机器学习方法,其中模型通过从标注好的数据中学习输入和输出之间的映射关系。在监督学习中,训练数据包括了输入样本和对应的输出标签,模型通过对这些带有标签的数据进行学习,从而能够对新的输入样本进行预测。

在监督学习中,模型的目标是学习从输入到输出的映射关系,使得在遇到新的输入时,能够生成正确的输出。监督学习的典型应用包括图像分类、语音识别、自然语言处理、推荐系统等。

监督学习的基本过程包括以下几个步骤:

  1. 收集和准备带有标签的训练数据,其中包括输入样本和对应的输出标签。
  2. 将训练数据分为训练集和验证集,用于训练和评估模型。
  3. 选择合适的监督学习算法,例如线性回归、决策树、支持向量机、神经网络等。
  4. 使用训练集对模型进行训练,通过调整模型参数使其能够更好地拟合训练数据。
  5. 使用验证集对模型进行评估,选择最佳的模型。
  6. 在模型训练完成后,使用测试集对模型进行最终评估,评估其在新数据上的泛化性能。
  7. 在模型评估满足要求后,可以将其应用于实际场景中进行预测或决策等任务。

2.7. 无监督学习

无监督学习(Unsupervised Learning)是一种机器学习方法,其中模型从没有标签或没有明确的输出标签的训练数据中自主学习数据中的模式、结构或关系。与监督学习不同,无监督学习不需要训练数据中包含对应的输出标签,而是通过自主发现数据中的特征、模式或结构,从而进行数据的处理和学习。

在无监督学习中,通常有以下几种常见的任务:

  1. 聚类(Clustering):将数据样本划分为不同的组或簇,使得同一组内的样本相似度较高,不同组之间的样本相似度较低。
  2. 降维(Dimensionality Reduction):将高维的数据映射到低维的空间,保留数据中的主要结构和特征,从而减少数据的复杂性。
  3. 异常检测(Anomaly Detection):从数据中检测出与其他样本不同的异常样本,例如异常点、异常事件等。
  4. 数据生成(Data Generation):从训练数据中学习数据的分布,从而生成新的数据样本。
  5. 关联规则挖掘(Association Rule Mining):从数据中挖掘出频繁出现的项集和关联规则,用于发现数据中的潜在关联关系。

无监督学习在许多实际应用中都有广泛的应用,例如图像分割、社交网络分析、文本聚类、异常检测等。无监督学习的主要挑战之一是缺乏明确的标签信息,因此需要从数据中自主学习有用的特征或结构,并且对结果的评估相对较为困难。

3. GPT

上面介绍的都是人工智能相关的技术,接下来看看chatGPT这种应用,涉及到的概念和原理。

3.1. NLP

NLP全称自然语言处理(Natural Language Processing)技术,它是一种人工智能技术,研究人类语言与计算机之间交互的学科,是一个具体的AI技术应用场景。

NLP旨在解决计算机和人类语言之间的交互问题,让计算机能够理解、分析、处理、生成和对话自然语言,涉及到文本处理、语义理解、语言生成、情感分析、语音识别等领域。

通俗地说,NLP就是让计算机能够像人类一样理解、分析、处理和生成自然语言(如英语、中文等)的能力。

NLP技术涵盖了很多任务,例如文本分类(将文本分为不同的类别)、命名实体识别(识别文本中的人名、地名、机构名等特定实体)、情感分析(判断文本中的情感倾向)、机器翻译(将一种语言翻译成另一种语言)、文本生成(生成文章、对话等文本内容)等。

NLP技术在很多实际应用中得到了广泛的应用,如语音助手(如Siri、Alexa)、机器翻译工具、情感分析系统、智能客服、社交媒体分析、舆情监测等。NLP技术的发展不断推动着人工智能和语言智能领域的进步,对于改进计算机与人类之间的交互和理解能力具有重要意义。

3.2. 大型语言模型

大型语言模型是NLP领域中的一种具体的技术实现,用于处理和生成自然语言文本。

大型语言模型是指在机器学习和自然语言处理领域中,参数数量较大、拥有较强语言理解和生成能力的人工神经网络模型。它们通过对大规模文本数据进行训练,可以自动地生成文本、回答问题、完成任务等。

大型语言模型通常基于深度神经网络,包括循环神经网络(RNN)、长短时记忆网络(LSTM)、变压器模型(Transformer)等。这些模型在训练过程中可以从大量的文本数据中学习到语言的语法、语义、上下文和常识等知识,并可以利用这些知识进行生成、预测、分类、对话等多种自然语言处理任务。

大型语言模型的应用非常广泛,包括自动文本生成、机器翻译、情感分析、文本摘要、对话系统、语音识别、智能推荐、搜索引擎等。

目前处理效果比较好的NLP大语言模型,

  1. GPT-3(Generative Pre-trained Transformer 3):由OpenAI开发的一种基于变压器(Transformer)架构的大型语言模型。GPT-3在多个NLP任务上取得了卓越的性能,包括文本生成、问答、语言理解和文本分类等。
  2. BERT(Bidirectional Encoder Representations from Transformers):由Google开发的一种基于Transformer的双向编码器,用于进行预训练的语言表示学习。BERT在多个NLP任务上表现出色,尤其在语义理解和文本分类任务中取得了显著的性能提升。
  3. XLNet:由谷歌和卡内基梅隆大学联合开发的一种基于Transformer架构的大型语言模型。XLNet采用了一种自动回归和自回归混合的训练方式,能够生成更准确的语言表示,并在多个NLP任务上取得了领先的性能。
  4. T5(Text-to-Text Transfer Transformer):由谷歌开发的一种基于Transformer架构的大型语言模型。T5采用了一种通用的文本到文本转换方式,能够在多个NLP任务中进行端到端的训练和推理,包括文本分类、文本生成、问答等。
  5. ELECTRA(Efficiently Learning an Encoder that Classifies Token Replacements Accurately):由斯坦福大学和谷歌联合开发的一种基于对抗生成网络(GAN)的大型语言模型。ELECTRA在训练时采用了生成对抗网络的思想,能够在生成和判别之间进行有效的权衡,从而取得了较好的性能。

这里就看到了本文要关注的主角——GPT。

3.3. GPT

GPT全称是Generative Pre-trained Transformer,其中文译名通常为「生成式预训练转换器」或简称「生成式预训练模型」。其中,

  • “生成式”表示该模型具有生成文本的能力,可以根据输入的文本生成新的文本;
  • “预训练”表示该模型在大规模的文本数据上进行了预训练,从而获得了丰富的语言表示;
  • “转换器”或“模型”则表示该模型基于Transformer架构进行构建。

在中文语境中,「生成式预训练转换器」这一名称比较常见,用来指代GPT系列的语言模型。

作为一个大型语言模型,GPT的工作原理可以概括为以下几个关键步骤:

  1. 预训练:GPT首先在大规模的文本语料库上进行预训练。这意味着模型在海量的文本数据上学习语言的统计规律和语义关联,从而学会了单词、短语和句子的表示形式,以及它们之间的关系。
  2. Transformer架构:GPT使用了Transformer架构,这是一种基于自注意力机制(self-attention)的神经网络模型。自注意力机制允许模型在处理输入序列时,能够自动地为不同位置的单词分配不同的注意力权重,从而在模型中建立了全局的语义关联。
  3. Fine-tuning:在预训练完成后,GPT通过在特定任务上进行微调来进行进一步的训练。这个特定任务可以是生成文本、文本分类、命名实体识别等各种自然语言处理任务,从而使模型能够适应特定领域或任务的要求。
  4. 文本生成:在预训练和微调完成后,GPT可以生成文本。通过输入一个初始文本或单词,GPT会根据其学习到的语言规律和语义关联,自动地生成下一个合理的单词、短语或句子,从而实现文本的生成。
  5. 上下文理解:GPT还能够理解上下文。它可以根据之前的输入和生成的输出,以及自注意力机制学习到的全局语义关联,对当前输入的上下文进行理解,并生成合适的文本响应。

总的来说,GPT的工作原理可以概括为:通过预训练和微调,在大规模文本语料库上学习语言的统计规律和语义关联,并使用Transformer架构和自注意力机制来实现对文本的生成和上下文理解。这使得GPT成为了一种强大的自然语言处理工具,可用于各种文本生成和理解任务。

3.4. Generative生成式

GPT的生成式指的是GPT模型在生成文本时的特性。生成式模型是指能够自动地生成新的文本、图像、音频等内容的模型。对于GPT而言,生成式指的是其通过学习大量文本数据后,能够自动地生成类似人类语言的文本。

GPT是一种基于Transformer架构的语言模型,它具有生成文本的能力。在预训练阶段,GPT通过学习大量文本数据的上下文和统计特征,从而掌握了词汇、语法、语义等语言知识。在生成式模式下,GPT可以根据输入的上下文或主题,自动地生成一段新的文本,包括句子、段落甚至是整篇文章。

生成式模型在自然语言处理(NLP)领域有着广泛的应用,包括文本生成、机器翻译、对话系统、故事生成、代码生成等。生成式模型可以通过输入一个种子文本或主题,然后根据模型的语言模型能力,生成与输入上下文相关且合乎语法和语义规则的新文本。生成式模型具有很大的创造性和灵活性,能够生成各种不同风格、主题、长度的文本,因此在多个应用场景中得到了广泛应用。

3.5. Pre-trained预训练

GPT的预训练指的是使用大规模文本数据集对GPT(Generative Pre-trained Transformer)模型进行训练的阶段。

预训练是GPT模型的第一阶段,它的目标是让模型通过大量的文本数据获取丰富的语言知识和语言规律。

预训练的GPT模型通常是一个无监督的语言模型,它不需要标注数据或人工标签进行监督训练,而是从大量文本中自动学习语言知识。

预训练的GPT模型可以通过微调(fine-tuning)在特定的任务上进行进一步训练,例如文本生成、文本分类、命名实体识别等,从而适应特定应用场景的需求。

在预训练阶段,

  • GPT模型通过对大量文本进行自监督学习,通过处理海量的文本数据来学习语言模型的能力,对输入文本的统计特征和上下文进行建模,
  • 模型根据上下文中的词汇和语法规则生成文本,预测文本中缺失的部分或下一个词,从而学习到词汇、语法、语义等语言信息,
  • 最终让模型学会生成流畅和连贯的回复,生成类似人类语言的文本。

预训练技术已经在自然语言处理领域取得了显著的突破,并在许多NLP任务中取得了优秀的性能。

3.6. Transformer转换器

GPT的"转换器"(Transformer)指的是一种深度神经网络架构,它是GPT模型的基础架构。

Transformer架构最初由Vaswani等人于2017年提出,并在机器翻译任务中取得了显著的性能提升,该架构在处理长文本序列时具有优秀的性能,尤其在自然语言处理(NLP)任务中被广泛应用。

Transformer架构的核心思想是使用自注意力机制(self-attention mechanism),它允许模型在处理序列数据时能够同时对序列中的所有位置进行关注,而不需要像传统的循环神经网络(RNN)或卷积神经网络(CNN)那样依次处理序列数据。这使得Transformer能够在并行计算的情况下处理长文本序列,从而显著加速了模型的训练和推理过程。

Transformer架构由编码器(Encoder)和解码器(Decoder)两部分组成,分别用于对输入序列进行编码和生成输出序列。编码器负责将输入序列转换为抽象表示,解码器则负责将这些抽象表示转换为输出序列。

GPT模型使用了Transformer编码器的结构,将输入文本通过多层的自注意力和前馈神经网络层进行处理,从而学习到文本的语言模型。

借助Transformer架构,GPT模型能够对长文本序列进行建模,并且具有较强的上下文感知能力,这有助于GPT模型在生成文本时能够产生更加合乎语法和语义规则的文本。

同时,Transformer架构还具有较好的可扩展性,可以通过增加层数和调整其他超参数来进一步提升模型性能,使其适用于不同规模和复杂度的任务。

3.7. Prompt Engineering 提示工程

Prompt Engineering (PE提示工程),通过设计和改进 AI 的 prompt 来提高 AI 的表现。

在GPT模型中,"提示工程"(Prompt Engineering)指的是在生成文本时,通过设计合适的提示或引导信息,来指导模型生成符合预期的文本输出。这种提示可以是在输入中添加一些特定的文本,或者通过其他方式引导模型生成特定主题、风格、格式或内容的文本。

提示工程在使用GPT模型时是一种常用的技术,用于控制模型的生成结果,使其更加符合应用场景或任务的需求。通过设计合适的提示,可以引导GPT模型生成特定主题的文本、产生特定风格或语气的文本、生成特定格式或结构的文本,或者限制生成文本的长度、复杂度等。提示工程可以帮助调整GPT模型的生成结果,使其更加符合用户的预期。

在实际应用中,提示工程可以通过不同方式实现,例如在输入中添加前缀、后缀,或者设置生成过程中的参数和限制。不同的提示设计会对生成文本的结果产生不同的影响。合理设计的提示工程可以帮助用户更好地控制GPT模型的生成输出,使其更加符合应用需求,从而提升生成文本的质量和可用性。需要注意的是,在使用GPT模型时,提示工程的设计需要根据具体任务和应用场景进行调整和优化,以获得最佳的生成结果。

这个learningprompt教程整理了PE相关的经验,感兴趣的话可以看一下,随着AI技术的进一步发展,也许后面就不需要PE了。

4. 其他

4.1. AutoGPT

项目地址

AutoGPT是通过整合提示词、矢量数据库等技术,将AI自动化嵌入到了不同工作流程之中,提供了一种全新的AI技术应用思路。

预期是:对AI提出一个任务,授予他相关的能力(比如操作本地工作、联网查询等)权限,它可以自我分工,协同处理更复杂的任务,完成最终任务目标。

听起来很美好是不是,对AI顶一个赚钱的任务,我们就躺在家里面收钱就行了??(哪里会有这种好事~

4.2. GPT4ALL

项目地址

LLM(大语言模型)有非常宽泛的参数量范围,ChatGPT 模型有 1750 亿以上的参数,这样的数量级在本地硬件上很难跑动。

GPT4All 是基于 LLaMa 的~800k GPT-3.5-Turbo Generations 训练出来的助手式大型语言模型,这个模型接受了大量干净的助手数据的训练,包括代码、故事和对话,可作为 GPT4 的平替(并不能~

简单来说,借助GPT4All,可以在本地的机器上训练一个在某些方面貌似有点用的对话机器人。

5. 小结:对AI的一些看法

我也看了那个疯传的视频:描述文案,GPT自动生成的一段可以展示的HMTL文件,然后就是一大段“前端要凉”、”程序员自己革自己的命“之类的的评论。

从上面的这些概念,了解到GPT的大概原理,就知道它根本就不是魔法,而只是通过大量文本训练得到的文本结果而已。如果无法保证训练数据的完全准确,就无法保证生成结果的准确性,因此有时候就会看到GPT在一本正经的胡说八道(别管正确性,你就说结果通不通顺吧~

GPT可以尝试写出一些实现特定功能的代码片段,拿来查问题、写测试用例、做codeReview还是可以的。但短时间内感觉很难写出一个需求定制、代码量很大的完整工程出来。

就像写这篇文章一样,GPT像一个更智能的搜索引擎,帮助我快速找到想要了解的资料,但最后的产出,还是需要我来修改和调整。

GPT确实可以提升工作效率,节省我们在一些无意义的事情上花费的时间和精力,但其本质上仍然是一个工具,并不能替代人类的智能,对于其产出的结果,需要我们运用专业知识和经验来综合判断并决策。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mfbz.cn/a/579286.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

《QT实用小工具·四十四》支持图片和动图的文本编辑器

1、概述 源码放在文章末尾 该项目实现了一个功能丰富的文本编辑器,除了包含文本常规的编辑功能,还包括图片的插入功能和动图的插入功能,项目demo演示如下所示: 项目部分代码如下所示: #include "imagehelper.…

基于深度学习神经网络的AI图片上色DDcolor系统源码

第一步:DDcolor介绍 DDColor 是最新的 SOTA 图像上色算法,能够对输入的黑白图像生成自然生动的彩色结果,使用 UNet 结构的骨干网络和图像解码器分别实现图像特征提取和特征图上采样,并利用 Transformer 结构的颜色解码器完成基于视…

循环单链表的介绍与操作

定义 区别 链表合并 整合代码 typedef struct node{int data;node* next;; }lnode,*linklist; lnode* n; linklist l;//定义 void init(linklist &l){lnode lnew lnode;l->nextl;lnode *rl; } //单循环链表的合并 linklist merge(linklist &a,linklist b){//存头结…

注意力机制:SENet详解

SENet(Squeeze-and-Excitation Networks)是2017年提出的一种经典的通道注意力机制,这种注意力可以让网络更加专注于一些重要的featuremap,它通过对特征通道间的相关性进行建模,把重要的特征图进行强化来提升模型的性能…

ZISUOJ 高级语言程序设计实训-基础C(部分题)

说明&#xff1a; 有几个题是不会讲的&#xff0c;我只能保证大家拿保底分。 题目列表&#xff1a; 问题 A: 求平均数1 思路&#xff1a; 送分题…… 参考题解&#xff1a; #include <iostream> #include <iomanip> using std::cin; using std::cout;int main(…

C++项目在Linux下编译动态库

一、说明 最近在Windows下开发了一个C线程池项目&#xff0c;准备移植到Linux下&#xff0c;并且编译成动态库进行使用。现将具体过程在此记录。 二、准备 1、项目文件 我的项目文件如下&#xff0c;其中除main.cpp是测试文件之外&#xff0c;其他都是线程池项目相关的 将C…

双系统下删除ubuntu

絮絮叨叨 由于我在安装Ubuntu的时候没有自定义安装位置&#xff0c;而是使用与window共存的方式让Ubuntu自己选择安装位置&#xff0c;导致卸载时我不知道去格式化哪个分区&#xff0c;查阅多方资料后无果&#xff0c;后在大佬帮助下找到解决方案 解决步骤 1、 插上Ubuntu安…

【IR 论文】DPR — 最早提出使用嵌入向量来检索文档的模型

论文&#xff1a;Dense Passage Retrieval for Open-Domain Question Answering ⭐⭐⭐⭐⭐ EMNLP 2020, Facebook Research Code: github.com/facebookresearch/DPR 文章目录 一、论文速读二、DPR 的训练2.1 正样本和负样本的选取2.2 In-batch negatives 技巧 三、实验3.1 数据…

医学影像增强:空间域方法与频域方法等

医学影像图像增强是一项关键技术,旨在改善图像质量,以便更好地进行疾病诊断和评估。增强方法通常分为两大类:空间域方法和频域方法。 一、 空间域方法 空间域方法涉及直接对医学影像的像素值进行操作,以提高图像的视觉质量。以下是一些常用的空间域方法: 对比度调整:通过…

双向链表的介绍

引入 特点 操作 定义 插入 删除 小结 整合代码&#xff1a; //定义 typedef struct node{int data;node* next,prior; }Dlnode,*Dlinklist;//初始 void init(Dlinklist &l){Dlnode lnew Dlnode;l->nextNULL;l->priorNULL; }//插入&#xff1a;插入指定位置&#…

buuctf-misc-rar

13.rar 题目&#xff1a;直接破解就可以了 这个借用工具Aparch进行4位纯数字暴力破解&#xff0c;根据题目的提示是4位的纯数字&#xff0c;那我们就选择数字的破解 在长度这里&#xff0c;把最小口令长度和最大口令长度都选择为4 获得密码后进行解压。

各省财政涉农支出统计数据集(2001-2022年)

01、数据简介 财政涉农支出是指在政府预算中&#xff0c;用于支持农业、农村和农民发展的财政支出。这些支出旨在促进农村经济的发展&#xff0c;提高农民收入&#xff0c;改善农村生产生活条件&#xff0c;推进农业现代化。 在未来的发展中&#xff0c;各省将继续加大财政涉…

【研发管理】产品经理知识体系-产品设计与开发工具

导读&#xff1a;产品设计与开发工具的重要性体现在多个方面&#xff0c;它们对于产品的成功开发、质量提升以及市场竞争力都具有至关重要的影响。产品设计工具可以帮助设计师更高效地创建和优化产品原型。开发工具在产品开发过程中发挥着至关重要的作用。产品设计与开发工具还…

这三个AI导航站,你绝对用得到!!

Hi&#xff0c;这里是前端后花园&#xff0c;专注分享前端软件网站、工具资源。不得不说AI正在慢慢改变我们学习和工作方式&#xff0c;今天带来这三个AI导航站&#xff0c;总有一个你用得到&#xff0c;记得收藏啊&#xff01; AI工具集 https://ai-bot.cn/ 网站汇集了700 …

Linux多线程(三) 线程池C++实现

一、线程池原理 我们使用线程的时候就去创建一个线程&#xff0c;这样实现起来非常简便。但如果并发的线程数量很多&#xff0c;并且每个线程都是执行一个时间很短的任务就结束了&#xff0c;这样频繁创建线程就会大大降低系统的效率&#xff0c;因为频繁创建线程和销毁线程需…

华为MRS服务使用记录

背景&#xff1a;公司的业务需求是使用华为的这一套成品来进行开发&#xff0c;使用中发现&#xff0c;这个产品跟原生的Hadoop的那一套的使用&#xff0c;还是有很大的区别的&#xff0c;现记录一下&#xff0c;避免以后忘了 一、原始代码的下载 下载地址&#xff1a;MRS样例…

STM32HAL库++ESP8266+cJSON连接阿里云物联网平台

实验使用资源&#xff1a;正点原子F1 USART1&#xff1a;PA9P、A10&#xff08;串口打印调试&#xff09; USART3&#xff1a;PB10、PB11&#xff08;WiFi模块&#xff09; DHT11&#xff1a;PG11&#xff08;采集数据、上报&#xff09; LED0、1&#xff1a;PB5、PE5&#xff…

input框添加验证(如只允许输入数字)中文输入导致显示问题的解决方案

文章目录 input框添加验证(如只允许输入数字)中文输入导致显示问题的解决方案问题描述解决办法 onCompositionStart与onCompositionEnd input框添加验证(如只允许输入数字)中文输入导致显示问题的解决方案 问题描述 测试环境&#xff1a;react antd input (react的事件与原生…

浅谈在Java代码中创建线程的多种方式

文章目录 一、Thread 类1.1 跨平台性 二、Thread 类里的常用方法三、创建线程的方法1、自定义一个类&#xff0c;继承Thread类&#xff0c;重写run方法1.1、调用 start() 方法与调用 run() 方法来创建线程&#xff0c;有什么区别&#xff1f;1.2、sleep()方法 2、自定义一个类&…

嵌入式常见存储器

阅读引言&#xff1a; 在看一款芯片的数据手册的时候&#xff0c; 无意间翻到了它的启动模式(Boot Mode), 发现这种这么多种ROM&#xff0c;所以就写下了这篇文章。 目录 一、存储器汇总 二、易失性存储器(RAM) 1. SRAM 1.1 单口SRAM 1.2 双口SRAM 2. DRAM 2.1 SDRAM 2…
最新文章