欢迎访问智慧医疗网 | 网站首页
 
当前位置:首页 > 医疗大数据

什么是AI领域火爆的大模型?一文读懂大模型常用名词意义

发布时间:2024-02-15 来源:医学大数据与人工智能 浏览量: 字号:【加大】【减小】 手机上观看

打开手机扫描二维码
即可在手机端查看

    大模型是未来人类智能发展的重要方向和核心技术,未来随着AI技术的不断进步和应用场景的不断拓展,大模型将在更多领域展现其巨大的潜力,为人类万花筒般的AI未来拓展无限可能性。


一、大模型的概念

    大模型本质上是一个使用海量数据训练而成的深度神经网络模型,其巨大的数据和参数规模,实现了智能的涌现,展现出类似人类的智能。

    相比小模型,大模型通常参数较多、层数较深,具有更强的表达能力和更高的准确度,但也需要更多的计算资源和时间来训练和推理,适用于数据量较大、计算资源充足的场景。

    大模型(Large Model,也称基础模型,即Foundation Model),是指具有大量参数和复杂结构的机器学习模型,能够处理海量数据、完成各种复杂的任务,如自然语言处理、计算机视觉、语音识别等。

    超大模型: 超大模型是大模型的一个子集,它们的参数量远超过大模型。

    大语言模型(Large Language Model) : 通常是具有大规模参数和计算能力的自然语言处理模型,例如 OpenAl 的 GPT-3 模型。这些模型可以通过大量的数据和参数进行训练,以生成人类类似的文本或回答自然语言的问题。大型语言模型在自然语言处理、文本生成和智能对话等领域有广泛应用。

    GPT (Generative Pretrained Transformer) : GPT 和ChatGPT都是基于FTransformer架构的语言模型,但它们在设计和应用上存在区别:GPT模型旨在生成自然语言文本并处理各种自然语言处理任务,如文本生成、翻译、摘要等。它通常在单向生成的情况下使用,即根据给定的文本生成连贯的输出

    ChatGPT: ChatGPT则专注于对话和交互式对话。它经过特定的训练,以更好地处理多轮对话和上下文理解。ChatGPT设计用于提供流畅、连贯和有趣的对话体验,以响应用户的输入并生成合适的回复。

二、大模型发展历程

微信图片_20240215125218.png

    萌芽期 (1950-2005) : 以CNN为代表的传统神经网络模型阶段

    探索沉淀期 (2006-2019) : 以Transformer为代表的全新神经网络模型阶段

    迅猛发展期 (2020-至今) : 以GPT为代表的预训练大模型阶段

三、大模型的分类

3.1按照输入数据类型

微信图片_20240215125221.png

    语言大模型(NLP): 是指在自然语言处理(NaturalLanguage Processing,NLP)领域中的一类大模型,通常用于处理文本数据和理解自然语言。这类大模型的主要特点是它们在大规模语料库上进行了训练,以学习自然语言的各种语法、语义和语境规则。例如:GPT系列 (OpenAl) 、Bard (Google) 、文心一言 (百度)

    视觉大模型(CV): 是指在计算机视觉(Computer Vision,CV)领中使用的大模型,通常用于图像外理和分析。这类模型通过在大规模图像数据上进行训练,可以实现各种视觉任务,如图像分类、目标检测、图像分割、姿态估计、人脸识别等。例如: VIT系列(Google) 、文心UFO、华为盘古CV、INTERN (商汤)。

    多模态大模型: 是指能够处理多种不同类型数据的大模型,例如文本、图像、音频等多模态数据。这类模型结合了NLP和CV的能力,以实现对多模态信息的综合理解和分析,从而能够更全面地理解和处理复杂的数据。例如: DingoDB多模向量数据库(九章云极DataCanvas)、DALL-E(OpenAl)、悟空画画(华为) 、midjourney。

3.2按照应用领域

    通用大模型L0: 是指可以在多个领域和任务上通用的大模型。它们利用大算力、使用海量的开放数据与具有巨量参数的深度学习算法在大规模无标注数据上进行训练,以寻找特征并发现规律,进而形成可“举一反三"的强大泛化能力,可在不进行微调或少量微调的情况下完成多场景任务,相当于AI完成了“通识教育”

    行业大模型L1: 是指那些针对特定行业或领域的大模型。它们通常使用行业相关的数据进行预训练或微调,以提高在该领域的性能和准确度,相当于AI成为“行业专家”。

    垂直大模型L2: 是指那些针对特定任务或场景的大模型。它们通常使用任务相关的数据进行预训练或微调,以提高在该任务上的性能和效果。

四、模型的泛化与微调

    模型的泛化能力: 是指一个模型在面对新的、未见过的数据时,能够正确理解和预测这些数据的能力。在机器学习和人工智能领域,模型的泛化能力是评估模型性能的重要指标之

    模型的微调: 给定预训练模型(Pre-trained model),基于模型进行微调(Fine Tune) 。相对于从头开始训练(Training a modelfrom scatch),微调可以省去大量计算资源和计算时间,提高计算效率,甚至提高准确率。

    模型微调的基本思想是使用少量带标签的数据对预训练模型进行再次训练,以适应特定任务。在这个过程中,模型的参数会根据新的数据分布进行调整。这种方法的好外在于,它利用了预训练模型的强大能力,同时还能够适应新的数据分。因此,模型微调能够提高模型的泛化能力,减少过拟合现象。

五、模型微调方法

    Fine-tuning:  这是最常用的微调方法。通过在预训练模型的最后一层添加一个新的分类层,然后根据新的数据集进行微调。

    Feature augmentation: 这种方法通过向数据中添加一些人工特征来增强模型的性能。这些特征可以是手工设计的,也可以是通过自动特征生成技术生成的。

    Transfer leamning: 这种方法是使用在一个任务上训练过的模型作为新任务的起点,然后对模型的参数进行微调,以适应新的任务。


智慧医疗网 © 2022 版权所有   ICP备案号:沪ICP备17004559号-5