Ollama로 로컬에 LLM API 띄우기
·
AI
참고 블로그 : https://recording-it.tistory.com/115Docs : https://github.com/ollama/ollamaAgent 파이프라인을 띄우려면 Endpoint로 접근할 수 있는 API가 필요외부 API를 쓰면 돈이드니까, Ollama를 이용해 로컬에 모델을 띄운다 Ollama란 ?로컬 PC에서 대형 언어 모델(LLM)을 “설치·실행·관리”까지 한 번에 해주는 런타임 도구모델 파일을 가지고 실행시켜주는 엔진이라고 생각하면 될듯 GGUF(가중치, 토크나이저, 메타데이터 포함)나 Safetensors(가중치 정보만 보유)를 Import해서 구동시킬 수 있다고 한다링크를 통해 다운로드 https://ollama.com/download/mac모델 다운로드 및 실행ollama..