Ollama 사용 설정하기
Cori
Ollama를 활용해 토이프로젝트를 진행하게 되어, Ollama의 개념, 설치 방법 및 개발중인 도커 컨테이너와 Ollama를 연동하는 방법을 기록해본다.Chap # 01. Ollama란 ?로컬 환경에서 대형 언어 모델(LLM)을 실행할 수 있도록 설계된 오픈소스 프로젝트로, 인터넷 연결 없이도 다양한 모델을 활용할 수 있디. Ollama는 GPU 가속을 지원하여 빠른 추론이 가능하며, 기존의 클라우드 기반 AI 서비스와 달리 데이터를 로컬에서 처리 가능하다(보안 강화). 로컬 실행: 클라우드에 의존하지 않고 로컬에서 LLM 실행 가능경량화된 모델 제공: 기존 대형 모델을 최적화하여 경량화된 버전 사용 가능GPU 가속 지원: NVIDIA GPU를 활용하여 성능을 극대화Docker 연동 가능: 컨테이너 환..