- 서버 정보: CentOS Stream 9
- 라마 버전: llama3.1
1. Ollama Linux 버전 다운로드 명령어 실행
https://ollama.com/download/linux
curl -fsSL https://ollama.com/install.sh | sh
2. Ollama 설치 후 실행 명령어 입력
ollama run llama3.1
3. Ollama 로그 확인 명령어
journalctl -u ollama.service -b
+) 다른 PC에서 접속하기 위해 IP와 Port를 따로 지정하고 싶은 경우
1. 경로 이동
cd /etc/systemd/system
2. Ollama 설정 파일 열기
vi ollama.service
3. IP 및 Port 환경 변수 추가
[Service]
Environment="OLLAMA_HOST=등록할 HOST IP"
Environment="OLLAMA_PORT=11434"
4. 적용
systemctl daemon-reload
systemctl restart ollama
반응형
'AI' 카테고리의 다른 글
[LangChian] LangChain과 LangChain4j의 차이점 (+ 예시) (3) | 2024.09.19 |
---|---|
[LangChain] LangChain이란? (2) | 2024.09.16 |
[LangChain4j] ChatMessage 종류 (0) | 2024.08.17 |
[LangChain] Module - Model I/O & Prompt (0) | 2024.08.17 |