바로 가기

대규모 언어 모델(LLM)이란?

URL 복사

Red Hat OpenShift AI로 다양한 환경에서 신속하게 AI를 시작하세요

Red Hat® OpenShift® AI가 통합된툴, 반복 가능한 워크플로우, 유연한 배포 옵션, 그리고 신뢰할 수 있는 파트너 생태계를 통해 AI/ML 모델과 애플리케이션의 전체 라이프사이클을 가속화하는 방법을 오른쪽 영상(한국어 자막)에서 확인하세요. 
(비디오를 보려면 쿠키를 활성화해주세요.)

LLM은 비지도 학습이라는 방법을 사용하여 언어에 대한 이해를 형성합니다. 이 프로세스는 수천억 개의 단어와 구문으로 이뤄진 데이터 세트가 포함된 머신 러닝 모델을 제공하여 예시를 통해 연구하고 학습하는 과정으로 이루어져 있습니다. 사전 훈련의 이러한 비지도 학습 단계는 GPT-3(Generative Pre-Trained Transformer), BERT(Bidirectional Encoder Representations from Transformers)와 같은 LLM 개발에서 기본 단계에 해당합니다. 

즉, 인간의 명확한 지시가 없어도 컴퓨터는 데이터에서 정보를 추출하고 연결을 생성해 언어에 대해 '학습'할 수 있습니다. 이 대규모 언어 모델은 단어들이 결합되는 패턴에 대해 학습하므로 개연성에 따라 문장 구성 방법을 예측할 수 있습니다. 그 결과, 단어와 문장 사이의 복잡한 관계를 포착할 수 있는 모델이 완성됩니다. 

리소스 소모가 큰 대규모 언어 모델(LLM)

LLM은 연결을 찾기 위해 지속적으로 확률을 계산하므로 상당한 계산 리소스가 필요합니다. LLM에 컴퓨팅 성능을 제공하는 리소스 중 하나가 그래픽 처리 장치(GPU)입니다. GPU는 복잡한 병렬 처리 태스크를 해결하기 위해 설계된 하나의 전문화된 하드웨어로, LLM과 같이 많은 계산이 필요한 ML 및 딥러닝 모델에 적합합니다.

대규모 언어 모델 구성요소

GPU는 대부분의 LLM이 구현하는 NLP 태스크를 위해 특별히 설계된 소프트웨어 아키텍처 유형인 트랜스포머의 훈련과 운영을 가속화하는 데도 중요한 역할을 합니다. 트랜스포머는 ChatGPT, BERT 등 널리 사용되는 LLM 기반 모델의 기본 구성 요소입니다.

트랜스포머 아키텍처는 문장 속 단어들과 같이 일련의 데이터에서 요소들의 상황별 관계 및 종속성을 효율적으로 포착함으로써 머신 러닝 모델의 기능을 강화합니다. 이것이 가능한 이유는 일련의 데이터에서 서로 다른 요소들의 중요성을 평가할 수 있도록 머신 러닝 모델을 지원하는 셀프 어텐션 메커니즘(매개 변수라고도 함)을 사용하여 모델의 이해와 성능을 향상하기 때문입니다. 매개 변수는 경계를 정의하며, 경계는 딥러닝 알고리즘이 처리해야 하는 방대한 양의 데이터를 이해하는 데 중요합니다.

트랜스포머 아키텍처에는 수백만 또는 수십억 개의 매개 변수가 포함되므로 복잡한 언어 패턴과 뉘앙스를 포착할 수 있습니다. 실제로 '대규모 언어 모델'에서 '대규모'란 단어는 LLM을 운영하는 데 필요한 엄청난 개수의 매개 변수를 가리킵니다.

LLM 및 딥러닝

LLM을 통해 비지도 학습의 과정을 안내하는 데 도움이 되는 트랜스포머와 매개 변수는 딥러닝이라고 하는 더욱 광범위한 구조의 일부입니다. 딥러닝은 컴퓨터가 인간의 뇌에서 영감을 얻은 알고리즘을 사용하여 데이터를 처리하도록 가르치는 인공지능 기술입니다. 딥 뉴럴 러닝 또는 딥 뉴럴 네트워킹이라고도 하는 딥러닝 기술을 활용하여 컴퓨터는 인간이 지식을 얻는 방식을 모방하고 관찰을 통해 학습할 수 있습니다. 

인간의 뇌는 상호 연결된 많은 뉴런을 포함하고 있으며 이러한 뉴런은 뇌가 정보(또는 데이터)를 처리할 때 정보 전달자 역할을 합니다. 이 뉴런들은 서로 통신하고 뇌의 다른 영역 간에 정보를 전달하기 위해 전기 자극과 화학 신호를 사용합니다. 

딥러닝의 기본 아키텍처인 인공 신경망(ANN)은 이러한 생물학적 현상을 기반으로 하지만, 노드라고 하는 소프트웨어 모듈로 만들어진 인공 뉴런에 의해 형성됩니다. 이러한 노드는 (뇌의 화학 신호 대신) 수학적 계산을 사용하여 모델 내에서 정보를 전달하고 전송합니다.

대규모 언어 모델(LLM)의 운영 보기

현대적인 LLM은 과거 개인용 컴퓨터로는 파악할 수 없었던 방식으로 언어를 이해하고 활용할 수 있습니다. 이러한 머신 러닝 모델은 텍스트 생성, 콘텐츠 요약, 번역, 재작성, 분류, 범주화, 분석 등 다양한 기능을 수행할 수 있습니다. 이를 통해 인간은 창의력을 높이고 생산성을 향상하여 어려운 문제를 해결할 수 있는 강력한 툴셋을 이용할 수 있습니다.

비즈니스 환경에서 LLM을 가장 흔히 사용하는 경우로는 다음이 포함될 수 있습니다.

자동화 및 효율성
LLM은 고객 지원, 데이터 분석, 콘텐츠 생성과 같은 언어 관련 태스크를 보완하거나 완전히 대체하는 데 도움이 될 수 있습니다. 이러한 자동화를 통해 운영 비용은 줄고 인력은 더욱 전략적인 태스크에 집중할 수 있습니다. 

인사이트 생성
LLM은 대용량의 텍스트 데이터를 신속하게 스캔하기 때문에 기업은 소셜 미디어, 리뷰, 연구 논문 등과 같은 출처를 스크랩하여 시장 동향과 고객 피드백을 더 잘 파악하고 이를 비즈니스 의사 결정에 활용할 수 있습니다.

고객 경험 개선 
LLM은 기업이 고객에게 고도로 맞춤화된 콘텐츠를 제공하여 참여를 유도하고 사용자 환경을 개선하는 데 도움이 됩니다. 이는 24시간 고객 지원을 제공하기 위해 챗봇을 구현하거나, 특정 사용자 유형에게 마케팅 메시지를 맞춤화하거나, 언어 번역과 문화 간 의사소통을 지원하는 것과 비슷해 보일 수 있습니다. 

LLM의 과제와 한계

비즈니스 환경에서 LLM을 사용할 경우 여러 장점을 활용할 수 있지만 다음과 같이 고려해야 할 잠재적인 한계도 있습니다.

  • 비용
    LLM을 개발, 훈련, 배포하려면 많은 리소스가 필요합니다. 이러한 이유로 인해 NLP 기능으로 사전 훈련되고 언어에 대한 기본 이해를 제공하는 기반 모델로부터 구축되는 LLM이 많으며, 여기에서 더 복잡한 LLM이 파생될 수 있습니다.
  • 프라이버시와 보안 
    LLM에는 많은 정보에 대한 액세스가 필요하며, 때로는 그러한 정보에 고객 정보나 상용 비즈니스 데이터가 포함되기도 합니다. 이는 제3사 제공업체가 모델을 배포하거나 액세스하는 경우에 특히 주의해야 하는 부분입니다.
  • 정확성과 편향 
    딥러닝 모델이 통계적으로 편향된 데이터로 학습하거나 모집단의 정확한 표현을 제공하지 않는 경우 출력에 결함이 있을 수 있습니다. 안타깝게도 사람의 편견이 인공지능에 전달되어 차별적인 알고리즘과 편향 출력에 대한 위험을 초래할 때가 많습니다. 조직이 생산성과 성과 향상을 위해 AI를 지속적으로 활용하는 만큼, 편향을 최소화하기 위한 전략 마련이 중요해졌습니다. 이를 위해서는 우선 포용성 있는 설계 프로세스를 갖추고 수집된 데이터 내 대표성을 지닌 다양성을 더욱 신중하게 고려해야 합니다. 

 

의료, 금융 서비스, 통신, 자동차 및 기타 산업 전반에서 AI/ML의 혁신 적인 활용 사례 가 늘어가고 있습니다. Red Hat의 오픈소스 플랫폼과 강력한 파트너 에코시스템은 AI 기반의 지능형 애플리케이션을 위한 ML 및 딥러닝 모델을 개발, 배포, 관리할 수 있는 완전한 솔루션을 제공합니다.

선도적인 하이브리드 및 멀티클라우드 컨테이너 개발 플랫폼인 Red Hat® OpenShift®는 데이터 사이언티스트와 소프트웨어 개발자 간의 협업을 지원합니다. 또한 데이터센터에서 네트워크 엣지, 멀티클라우드에 이르는 하이브리드 클라우드 환경 전반에서 지능형 애플리케이션 출시를 가속화합니다.

조직은 Red Hat OpenShift Data Science를 통해 쿠버네티스 인프라를 설계하고 배포할 필요 없이 컨테이너화된 머신 러닝 모델을 빠르게 개발, 훈련, 테스트, 배포하기 위한 리소스에 액세스할 수 있습니다. 사용자는 온프레미스 또는 클라우드 서비스를 통해 OpenShift의 네이티브 GPU 가속화 기능을 사용하여 기반 모델을 훈련하도록 더 안정적으로 확장할 수 있습니다. 

IBM Watson Code Assistant가 통합된 Ansible Lightspeed는 개발자들이 더욱 효율적으로 Ansible 콘텐츠를 만들도록 지원하는 생성형 AI 서비스입니다. 사용자가 입력한 간단한 내용을 읽은 후 IBM watsonx 파운데이션 모델과 상호작용하여 자동화 작업을 위한 코드 권장 사항을 생성하고 이를 사용하여 Ansible Playbook을 생성합니다. Red Hat OpenShift에 Ansible Lightspeed를 배포하면 지능형 자동화와 오케스트레이션을 통해 어려운 쿠버네티스 작업을 더 손쉽게 수행할 수 있습니다. 

e-book: Red Hat OpenShift의 AI/ML

추가 자료

문서

생성형 AI란?

생성형 AI는 대규모 데이터 세트로 학습한 딥러닝 모델을 사용하여 새 콘텐츠를 생성합니다.

문서

머신 러닝이란?

머신 러닝이란 명확한 프로그래밍 없이 패턴을 찾고, 예측하고, 경험을 통해 학습하도록 컴퓨터를 훈련하는 기술입니다.

문서

기반 모델이란?

기반 모델이란 다양한 태스크를 수행할 수 있도록 사전에 훈련된 ML(머신 러닝) 모델의 한 유형을 말합니다. 

AI/ML에 대해 자세히 알아보기

제품

Red Hat OpenShift에서 AI/ML 실험 및 모델을 훈련, 튜닝, 서비스, 모니터링 및 관리할 수 있는 툴을 제공하는 AI 중심 포트폴리오입니다.

선택한 인프라에서 애플리케이션 출시 테스트를 마친 통합 서비스 세트가 포함된 엔터프라이즈 애플리케이션 플랫폼입니다. 

IBM watsonx Code Assistant가 통합된 Red Hat Ansible Lightspeed는 Ansible 오토메이터, 오퍼레이터 및 개발자가 자신의 작업을 위해 설계한 생성형 AI 서비스입니다. 

리소스

e-book

프로덕션 레디 AI/ML 환경을 구축하기 위해 고려해야 할 중요 사항

애널리스트 문서

MLOps용 Red Hat 하이브리드 클라우드 플랫폼의 Total Economic Impact™

웨비나

오픈소스 및 쿠버네티스로 AI 최대한 활용하기