Nvidia의 AI Workbench로 모델 개선
홈페이지홈페이지 > 블로그 > Nvidia의 AI Workbench로 모델 개선

Nvidia의 AI Workbench로 모델 개선

Aug 05, 2023

연례 AI 학술 컨퍼런스인 SIGGRAPH에 맞춰 엔비디아는 오늘 아침 사용자가 데이터 센터 및 퍼블릭 클라우드로 확장하기 전에 PC 또는 워크스테이션에서 생성 AI 모델을 생성, 테스트 및 맞춤화할 수 있도록 설계된 새로운 플랫폼을 발표했습니다.

엔비디아 창업자이자 CEO인 젠슨 황(Jensen Huang)은 행사 기조연설에서 “이 기능을 민주화하려면 거의 모든 곳에서 실행할 수 있도록 해야 합니다.”라고 말했습니다.

AI Workbench라고 불리는 이 서비스는 로컬 워크스테이션에서 실행되는 기본 인터페이스를 통해 액세스할 수 있습니다. 이를 통해 개발자는 독점 데이터를 사용하여 Hugging Face 및 GitHub와 같은 인기 있는 리포지토리의 모델을 미세 조정하고 테스트할 수 있으며, 확장이 필요할 때 클라우드 컴퓨팅 리소스에 액세스할 수 있습니다.

Nvidia의 엔터프라이즈 컴퓨팅 담당 부사장인 Manuvir Das는 AI Workbench의 원동력은 대규모 AI 모델을 사용자 정의하는 데 소요되는 도전이자 시간 소모적인 성격 때문이라고 말합니다. 엔터프라이즈 규모의 AI 프로젝트에서는 올바른 프레임워크와 도구를 찾기 위해 여러 저장소를 검색해야 할 수 있으며, 프로젝트를 한 인프라에서 다른 인프라로 이동해야 하는 경우 프로세스가 더욱 복잡해집니다.

확실히 엔터프라이즈 모델을 프로덕션에 출시하는 성공률은 낮습니다. 데이터 과학 및 비즈니스 분석 플랫폼인 KDnuggets의 여론 조사에 따르면 응답한 데이터 과학자의 대다수는 기계 학습 모델을 배포하기 전에 프로젝트의 80% 이상이 중단된다고 말합니다. Gartner의 별도 추정에 따르면 빅 데이터 프로젝트의 약 85%가 인프라 장애로 인해 실패하는 것으로 나타났습니다.

Das는 준비된 성명에서 "전 세계 기업들이 적합한 인프라를 찾고 생성적 AI 모델과 애플리케이션을 구축하기 위해 경쟁하고 있습니다"라고 말했습니다. "Nvidia AI Workbench는 조직 간 팀이 현대 비즈니스에서 점점 더 중요해지고 있는 AI 기반 애플리케이션을 만들 수 있는 단순화된 경로를 제공합니다."

배심원단은 경로가 얼마나 "단순화"되었는지 평가합니다. 그러나 Das의 관점에서는 AI Workbench를 사용하면 개발자가 데이터 준비 및 데이터 시각화를 위한 라이브러리를 포함하여 모델, 프레임워크, SDK 및 라이브러리를 오픈 소스 리소스에서 통합 작업 공간으로 통합할 수 있습니다.

AI(특히 생성 AI)에 대한 수요가 증가함에 따라 대규모 일반 모델을 특정 사용 사례에 맞게 미세 조정하는 데 초점을 맞춘 도구가 유입되었습니다. Fixie, Reka 및 Together와 같은 스타트업은 기업과 개인 개발자가 비용이 많이 드는 클라우드 컴퓨팅을 위해 비용을 들이지 않고도 필요에 따라 모델을 보다 쉽게 ​​사용자 정의할 수 있도록 하는 것을 목표로 합니다.

AI 워크벤치를 통해 Nvidia는 미세 조정에 대한 보다 분산된 접근 방식을 제시합니다. 이는 클라우드 서비스가 아닌 로컬 시스템에서 발생합니다. Nvidia와 AI 가속 GPU 제품 포트폴리오가 이익을 얻을 수 있다는 점을 고려하면 이는 의미가 있습니다. Nvidia는 이 소식을 발표하는 보도 자료에서 RTX 라인업에 대해 그다지 미묘하지 않게 언급했습니다. 그러나 Nvidia의 상업적 동기는 제쳐두고 AI 모델 실험을 위해 단일 클라우드나 서비스에 얽매이기를 원하지 않는 개발자에게 이 발표는 매력적일 수 있습니다.

GPU에 대한 AI 기반 수요는 Nvidia의 수익을 새로운 차원으로 끌어올렸습니다. 지난 5월 Nvidia가 이전 회계 분기보다 19% 증가한 71억 9천만 달러의 매출을 보고한 후 회사의 시가총액은 잠시 1조 달러에 도달했습니다.