Ir para seção

O que é LLM? | Large Language Model

Copiar URL

Acelere a automação em TI com a IA

Leia este e-book e aprenda como o Red Hat® Ansible® Lightspeed usa o IBM Watsonx Code Assistant para converter suas ideias de automação em código do Red Hat Ansible Automation Platform usando prompts em linguagem natural.

LLM (Large Language Models) são modelos de inteligência artificial (IA) que utilizam técnicas de Machine Learning (ML) para entender e gerar linguagem humana, como textos e imagens. Os LLMs são muito importantes para as empresas e organizações que querem automatizar e aprimorar diferentes aspectos da comunicação e do processamento de dados. 

Os LLMs usam modelos baseados em rede neural e costumam adotar técnicas de processamento de linguagem natural (NLP) para computar e calcular suas respostas. O NLP é um campo da inteligência artificial (IA) que capacita computadores a entender, interpretar e gerar textos. Por sua vez, isso permite que os LLMs realizem tarefas como análise de texto e sentimento, traduções e reconhecimento de fala.

Soluções de IA da Red Hat

Para desenvolver o entendimento da linguagem, os LLMs utilizam um método chamado de aprendizado não-supervisionado. Nesse processo, um modelo de machine learning é alimentado com conjuntos de dados (centenas de bilhões de palavras e frases) os quais são estudados e aprendidos com base em exemplo. Essa fase de aprendizado não supervisionado anterior ao treinamento é fundamental para o desenvolvimento de LLMs como o GPT-3 (Generative Pre-Trained Transformer) e BERT (Bidirectional Encoder Representations from Transformers). 

Em outras palavras, mesmo sem instruções humanas explícitas, o computador consegue extrair informações dos dados, criar conexões e “aprender” sobre a linguagem. À medida que o modelo aprende os padrões de associação das palavras, ele consegue prever as estruturas das frases com base na probabilidade. O resultado é um modelo que consegue capturar as complexas relações entre palavras e frases. 

LLMs exigem muitos recursos

Como estão sempre calculando probabilidades para encontrar conexões, os LLMs exigem um volume significativo de recursos computacionais. Uma maneira de obter a capacidade computacional necessária é por meio das unidades de processamento gráfico (GPUs). A GPU é um tipo especializado de hardware criado para lidar com tarefas de processamento complexas e simultâneas, sendo perfeita para modelos de ML e deep learning que exigem muitos cálculos (como os LLMs).

LLMs e transformadores

As GPUs também são fundamentais para acelerar o treinamento e a operação dos transformadores, um tipo de arquitetura de software criado especialmente para as tarefas de NLP implementadas pela maioria dos LLMs. Os transformadores são elementos essenciais dos modelos base de LLMs muito conhecidos, como o ChatGPT e BERT.

Para aprimorar a capacidade de um modelo de machine learning, a arquitetura do transformador captura com eficiência as dependências e relações contextuais entre os elementos em uma sequência de dados (como palavras em uma frase). Este processo utiliza mecanismos de autoatenção (também conhecidos como parâmetros) que permitem que o modelo pondere a importância de diferentes elementos na sequência, aprimorando seu entendimento e desempenho. Os parâmetros definem limites, essenciais para analisar o grande volume de dados que os algoritmos de Deep Learning precisam processar.

A arquitetura do transformador inclui bilhões de parâmetros para possibilitar a captura dos complexos padrões e nuances da linguagem. Na verdade, o termo “grande” em “grande modelo de linguagem” se refere à enorme quantidade de parâmetros necessária para operar um LLM.

LLMs e Deep Learning

Os transformadores e parâmetros que auxiliam no processo de aprendizado não supervisionado com um LLM fazem parte de uma estrutura mais ampla, chamada de "Deep Learning". Deep learning é uma técnica de inteligência artificial que ensina computadores a processar dados usando um algoritmo inspirado no cérebro humano. Também conhecidas como aprendizado neural profundo ou rede neural profunda, as técnicas de deep learning permitem que os computadores aprendam por meio da observação, imitando a maneira como os humanos adquirem conhecimento. 

O cérebro humano contém diversos neurônios interconectados que atuam como mensageiros na hora de processar as informações (ou dados). Esses neurônios usam impulsos elétricos e sinais químicos para se comunicarem e transmitirem informações entre diferentes áreas do cérebro. 

As redes neurais artificiais (ANNs), arquitetura subjacente do deep learning, são baseadas nesse fenômeno biológico, porém são formadas por neurônios artificiais criados a partir de módulos de software chamados de nós. Esses nós usam cálculos matemáticos (em vez de sinais químicos, como no cérebro) para se comunicarem e transmitirem informações no modelo.

Aprenda mais sobre o funcionamento dos LLMs

Open Technology Sessions

Conheça a série de webinars da Red Hat em português feita para você descobrir como inovar. Aprenda sobre Automação, Infraestrutura, Plataforma de Aplicações, Cloud Services, Inteligência Artificial e muito mais!

Red Hat User Group Community

MeetUp Red Hat User Group chega à América Latina. Encontros presenciais para conversas técnicas, trocas de experiências e compartilhamento de casos de uso em um ambiente amigável e descontraído.

Os LLMs modernos conseguem entender e utilizar a linguagem de maneira antes inconcebível para um computador pessoal. Esses modelos de machine learning geram textos, resumem conteúdo e fazem traduções, classificações, categorizações, análises e muito mais. Todas essas habilidades oferecem ao ser humano uma ferramenta poderosa para ampliar a criatividade e melhorar a produtividade na hora de resolver problemas difíceis.

Alguns dos usos mais comuns de LLMs no cenário empresarial incluem:

Automação e eficiência
Os LLMs complementam ou assumem por completo as tarefas relacionadas à linguagem, como suporte ao cliente, análise de dados e geração de conteúdo. Essa automação diminui os custos operacionais e libera os recursos humanos para tarefas mais estratégicas. 

Geração de insights
Os LLMs conseguem verificar rapidamente grandes volumes de texto. Isso permite utilizar fontes como redes sociais, avaliações e artigos para estudar tendências do mercado e analisar o feedback dos clientes, ajudando a orientar as decisões empresariais.

Aperfeiçoamento da experiência do cliente
Com os LLMs, as empresas conseguem oferecer conteúdo altamente personalizado aos clientes, aumentando o engajamento e melhorando a experiência dos usuários. Alguns exemplos são: implementar um chatbot para disponibilizar atendimento ao cliente em tempo integral, personalizar as mensagens de marketing conforme perfis específicos de usuário e facilitar traduções e a comunicação entre diferentes culturas. 

Desafios e limitações dos LLMs

O uso de LLMs oferece muitas vantagens em um cenário empresarial, mas também inclui limitações que devem ser consideradas:

  • Custo
    Os LLMs exigem um investimento significativo em desenvolvimento, treinamento e implantação. É por isso que muitos deles são criados a partir de modelos de base. Esses modelos são pré-treinados com habilidades de NLP e oferecem uma referência que LLMs mais complexos aproveitam para entender a linguagem. Os LLMs open source e licenciados por open source são de uso gratuito, sendo ideais para organizações sem condições de desenvolver um modelo por conta própria.
  • Privacidade e segurança
    Os LLMs exigem acesso a muitas informações que podem incluir detalhes de clientes ou dados empresariais proprietários. Isso é algo com que se deve ter um cuidado especial, principalmente se o modelo for implantado ou acessado por entidades terceiras.
  • Precisão e viés
    Se um modelo de deep learning for treinado usando dados estatisticamente enviesados ou que não oferecem uma representação precisa da população, o resultado pode apresentar falhas. Infelizmente, é comum que o viés humano seja transferido para a inteligência artificial, o que pode criar algoritmos e resultados discriminatórios. À medida que as organizações continuam a explorar a IA para melhorar o desempenho e a produtividade, é fundamental implementar estratégias para minimizar os vieses. Isso começa com processos de design inclusivos e uma consideração mais cuidadosa sobre a representação da diversidade nos dados coletados.

Há diversos exemplos de casos de uso de inteligência artificial e machine learning que causaram uma revolução nos setores de saúde, serviços financeiros, telecomunicações, automotivo e outros. Nossas plataformas open source e robusto ecossistema de parceiros oferecem soluções completas para criar, implantar e gerenciar modelos de machine learning e deep learning usados em aplicações inteligentes com tecnologia de IA.

Líder entre as plataformas de desenvolvimento em container para ambientes híbridos e de multicloud, o Red Hat® OpenShift® facilita a colaboração entre cientistas de dados e desenvolvedores de software. Nossa solução acelera o lançamento de aplicações inteligentes em ambientes de nuvem híbrida, abrangendo data center, edge da rede e diferentes nuvens.

Com o Red Hat OpenShift AI, as empresas têm acesso a recursos para desenvolver, treinar, testar e implantar modelos de machine learning em containers com rapidez, sem precisar projetar e implantar a infraestrutura do Kubernetes. Os usuários podem escalar modelos de base para o treinamento com mais confiança usando as funcionalidades nativas de aceleração de GPU do OpenShift on-premises ou um serviço de computação em nuvem. 

O Red Hat Ansible® Lightspeed with IBM watsonx Code Assistant é um serviço de IA generativa que ajuda desenvolvedores a criar conteúdo para o Ansible com mais eficiência. Ele lê o texto em inglês inserido pelo usuário e interage com os modelos de base do IBM watsonx para gerar recomendações de código de tarefas de automação usadas na criação de Ansible Playbooks. Implante o Ansible Lightspeed no Red Hat OpenShift para simplificar tarefas difíceis do Kubernetes com automação e orquestração inteligentes. 

Ebook: Inteligência Artificial e Machine Learning no Red Hat OpenShift

Novo

InstructLab

O InstructLab é um projeto open source para aprimorar os modelos de linguagem de larga escala ou Large Language Models (LLMs).

Leitura recomendada

Artigo

O que é IA generativa?

A inteligência artificial generativa depende de modelos de deep learning treinados em grandes conjuntos de dados para criar novos conteúdos.

Artigo

O que é machine learning?

Machine learning (aprendizado de máquina) é a técnica de treinamento de computadores para encontrar padrões, fazer previsões e aprender com a experiência sem que seja necessário programá-los explicitamente.

Artigo

O que são modelos de base?

Um modelo de base é um tipo de modelo de machine learning (aprendizado de máquina) treinado previamente para realizar diversas tarefas. 

Aprenda mais sobre Inteligência Artificial (IA) e Machine Learning (ML)

Soluções

Novo

Uma plataforma de modelo de base usada para desenvolver, testar e executar LLMs da família Granite em aplicações empresariais de forma simples.

Um portfólio com foco em IA que oferece ferramentas para você treinar, ajustar, disponibilizar, monitorar e gerenciar experimentos e modelos de inteligência artificial e machine learning no Red Hat OpenShift.

Uma plataforma empresarial de aplicações com um conjunto de serviços testados para você implantar apps na infraestrutura que quiser. 

O Red Hat Ansible Lightspeed with IBM watsonx Code Assistant é um serviço de IA generativa criado por e para criadores de automação, operadores e desenvolvedores do Ansible. 

Recursos

ebook

Principais considerações sobre a criação de um ambiente de inteligência artificial e machine learning pronto para produção

Conteúdo de analistas

The Total Economic Impact™ of Red Hat Hybrid Cloud Platform for MLOps

Webinar

Getting the most out of AI with open source and Kubernetes