DataScience
Ollama를 이용한 로컬 코딩 어시스턴트 모델 (qwen2.5)
AI 2026. 1. 7. 12:52

OS: Ubuntu24.04CPU: Intel(R) Core(TM) Ultra 9 285KGPU: rtx5090 2장Memory: DDR5 128GB Ollama 설치curl -fsSL https://ollama.com/install.sh | sh설치 확인:ollama --version모델 다운로드ollama pull qwen2.5-coder:32b-instruct-q8_0다운로드 완료 후 테스트:ollama run qwen2.5-coder:32b-instruct-q8_0 "hello"Ollama 서버 외부 접속 허용기본적으로 localhost만 허용이라 설정 변경 필요:sudo systemctl edit ollama에디터가 열리면 아래 내용 입력:[Service]Environment="OLLAMA_H..