Red Hat OpenShift AI
Red Hat OpenShift AI란?
Red Hat® OpenShift® AI는 기업이 하이브리드 클라우드 환경에서 AI 지원 애플리케이션을 규모에 따라 생성하고 제공할 수 있게 해주는 유연하고 확장 가능한 인공지능(AI) 및 머신 러닝(ML) 플랫폼입니다.
오픈소스 기술을 사용하여 구축한 OpenShift AI는 팀이 실험하고, 모델을 서빙하고, 혁신적인 애플리케이션을 제공할 수 있도록 일관된 운영을 지원하는 신뢰할 수 있는 기능을 제공합니다.
AI 지원 애플리케이션을 더 빠르게 프로덕션으로 가져오기
Red Hat OpenShift AI와 Red Hat OpenShift의 입증된 기능을 단일 엔터프라이즈 레디(enterprise-ready) AI 애플리케이션 플랫폼에 결합하여 팀의 협업을 지원하세요. 데이터 사이언티스트, 엔지니어 및 애플리케이션 개발자는 일관성, 보안, 확장성을 촉진하는 단일 대상에서 협업할 수 있습니다.
OpenShift AI는 데이터 수집 및 준비, 모델 훈련 및 미세 조정(fine-tuning), 모델 서빙 및 모델 모니터링, 하드웨어 가속을 지원합니다. 하드웨어 및 소프트웨어 파트너로 구성된 개방형 에코시스템을 갖춘 OpenShift AI는 특정 활용 사례에 필요한 유연성을 제공합니다.
Red Hat OpenShift AI의 최신 릴리스에서는 향상된 확장성, 편향 및 드리프트 감지, 가속기 액세스 개선, 모델의 공유, 배포 및 추적을 위한 중앙화된 레지스트리를 제공합니다. 이는 퍼블릭 클라우드, 데이터센터, 엣지 환경 전반에서 기업의 AI/ML 혁신과 운영 일관성을 규모에 맞게 가속화하는 데 도움이 될 것입니다.
특징 및 장점
AI 인프라 관리에 소요되는 시간 단축
리소스에 대한 온디맨드 액세스를 팀에 제공하여 데이터를 탐색하고 조직에 실질적인 가치를 더하는 애플리케이션을 구축하는 데 집중할 수 있게 하세요. 시간 절약 혜택을 제공하는 또 다른 특징으로는 빌트인 보안 기능과 오퍼레이터 라이프사이클 통합이 있습니다.
검증되고 지원되는 AI/ML 툴링
Red Hat은 Red Hat OpenShift 애플리케이션 플랫폼에서 공통 AI/ML 툴링과 모델 서빙을 추적, 통합, 테스트, 지원하여 사용자의 편의를 도모합니다. OpenShift AI는 Red Hat의 Open Data Hub 커뮤니티 프로젝트와 Kubeflow와 같은 오픈소스 프로젝트에서 다년간 진행되는 인큐베이션 경험을 기반으로 합니다.
하이브리드 클라우드 전반의 유연성
셀프 관리형 소프트웨어로 제공되거나 OpenShift 기반의 전체 관리형 클라우드 서비스로 제공되는 Red Hat OpenShift AI는 온프레미스, 퍼블릭 클라우드 또는 엣지 등 모델 개발 및 배포 위치를 선택할 수 있는 안전하고 유연한 플랫폼을 제공합니다.
모범 사례 활용
Red Hat Consulting은 Red Hat OpenShift AI를 설치하고 구성하여 최대한 활용할 수 있는 서비스를 제공합니다.
OpenShift AI Pilot 경험이 필요하거나 MLOps Foundation을 빌드하는 데 가이드가 필요한 경우, Red Hat Consulting은 지원과 멘토링을 제공합니다.
Red Hat Enterprise Linux AI
Red Hat® Enterprise Linux® AI는 기업 애플리케이션을 위한 Granite 대규모 언어 모델(LLM) 제품군을 원활하게 개발, 테스트, 실행할 수 있는 기반 모델 플랫폼입니다.
파트너십
다른 통합 서비스와 제품을 통해 Red Hat OpenShift AI 플랫폼을 확장하여 더 많은 가치를 창출하세요.
NVIDIA와 Red Hat은 독보적인 유연성으로 다양한 AI 활용 사례를 가속화하는 확장 가능한 플랫폼을 제공합니다.
Intel®과 Red Hat은 조직이 AI 도입을 가속화하고 빠르게 AI/ML 모델을 운영화하도록 지원합니다.
IBM과 Red Hat은 AI 빌더를 위한 엔터프라이즈 수준의 AI 스튜디오인 IBM watsonx.aiTM 등을 통해 AI 개발 가속화를 위한 오픈소스 혁신을 제공합니다.
Starburst Enterprise와 Red Hat은 분산된 여러 이기종 데이터 플랫폼에서 신속한 데이터 분석을 통해 적시에 개선된 인사이트를 지원합니다.
IBM watsonx.ai로 AI 기능을 확대하세요
Red Hat OpenShift AI는 추가로 생성형 AI 기능을 제공하는 IBM watsonx.ai를 위한 오픈소스 기반을 제공합니다.
서비스로서의 Jupyter Notebook을 통한 협업
데이터 사이언티스트에게 사전 구축 또는 사용자 정의된 클러스터 이미지를 제공하여 Jupyter Notebook으로 모델을 구축할 수 있습니다. Red Hat OpenShift AI는 Jupyter, TensorFlow, PyTorch와 기타 오픈소스 AI 기술의 변경 사항을 추적합니다.
Red Hat OpenShift AI를 통한 모델 서빙 확장
온프레미스, 퍼블릭 클라우드 또는 엣지에서 지능형 애플리케이션으로 통합하는 데 모델 서빙을 활용할 수 있습니다. 이러한 모델은 소스 Notebook 변경 사항에 따라 재구축, 재배포, 모니터링될 수 있습니다.
솔루션 패턴
Red Hat과 NVIDIA AI Enterprise를 활용한 AI 애플리케이션
RAG 애플리케이션 생성
Red Hat OpenShift AI는 데이터 사이언스 프로젝트를 빌드하고 AI 기능을 탑재한 애플리케이션을 제공하기 위한 플랫폼입니다. 자체 참조 문서에서 AI 답변을 얻는 방법인 검색 증강 생성(Retrieval-Augmented Generation, RAG)을 지원하는 데 필요한 모든 도구를 통합할 수 있습니다. OpenShift AI를 NVIDIA AI Enterprise와 연결하면 대규모 언어 모델(Large Language Model, LLM)을 실험하여 애플리케이션에 대한 최적의 모델을 찾을 수 있습니다.
문서 파이프라인 구축
RAG를 활용하려면 먼저 문서를 벡터 데이터베이스에 수집해야 합니다. 예시 애플리케이션에서는 제품 문서 세트를 Redis 데이터베이스에 임베드합니다. 이러한 문서는 자주 변경되기 때문에, 이 프로세스에 대한 파이프라인을 구축하여 주기적으로 실행하면 항상 최신 버전의 문서를 확보할 수 있습니다.
LLM 카탈로그 살펴보기
NVIDIA AI Enterprise에서 다양한 LLM 카탈로그에 액세스하여 여러 가지 옵션을 사용해 보고 그중에서 최상의 결과를 제공하는 모델을 선택할 수 있습니다. 모델은 NVIDIA API 카탈로그에 호스팅됩니다. API 토큰을 설정한 후에는 OpenShift AI에서 바로 NVIDIA NIM 모델 서빙 플랫폼을 사용하여 모델을 배포할 수 있습니다.
적합한 모델 선택
다양한 LLM을 테스트하면서 사용자는 생성된 각 응답을 평가할 수 있습니다. Grafana 모니터링 대시보드를 설정하면 각 모델의 평점, 대기 시간, 응답 시간을 비교할 수 있습니다. 그런 다음 해당 데이터를 기반으로 프로덕션에서 사용하기에 가장 적합한 LLM을 선택할 수 있습니다.
관련 리소스 살펴보기
동영상
Red Hat OpenShift AI 데모
e-book
생성형 AI를 위한 기반 구축 시 주요 고려 사항
애널리스트 문서
Omdia 리포트: AI를 위한 강력한 운영 기반 구축하기
체크리스트
조직에서 MLOps를 성공적으로 구현하는 5가지 주요 방법
Red Hat OpenShift AI 체험판 시작 방법
개발자 샌드박스
사전 구성된 유연한 환경에서 AI 지원 애플리케이션을 빌드해 보고 싶은 개발자와 데이터 사이언티스트에게 적합합니다.
60일 체험판
조직이 OpenShift AI의 모든 기능을 평가할 준비가 되었다면 60일 체험판으로 시작하세요. 기존 Red Hat OpenShift 클러스터가 필요합니다.