컴퓨터/Python

Llama 3.1을 사용해 봅시다.

콜렉터L 2024. 10. 22. 22:26

Meta에서 발표한 '라마 3.1' 대규모 언어 모델(LLM)을 설치하는 방법을 소개해 드리겠습니다.
라마 3.1은 Meta가 오픈소스로 공개한 고성능 LLM으로, OpenAI나 Google과 달리 무료로 제공됩니다.

 

 

라마 3.1 설치 방법

 

Ollama 사이트 접속: Ollama 웹사이트에 접속하여 상단의 'Download' 버튼을 클릭합니다.

 

 

버전 선택: macOS, Linux, Windows 중 자신의 운영체제에 맞는 버전을 선택하여 다운로드합니다.

 

 

설치: 다운로드한 OllamaSetup 파일을 실행하여 설치를 완료합니다.

Install만 쭉 누르시면 됩니다.

 

 

설치 확인: 터미널 창을 열고 'ollama' 명령어를 입력하여 설치가 잘 되었는지 확인합니다.

왼도우의 경우 Win + R 키를 누른 후 'cmd'를 입력합니다.

여기에 'ollama'를 입력하시면 아래와 같은 결과가 나옵니다.

show: 모델의 기본 정보와 라이센스를 확인 (예: ollama show llama3.1)

run: 모델 실행 (예: ollama run llama3.1)

list: 설치된 모델 리스트 출력 (예: ollama list)

rm: 모델 삭제 (예: ollama rm llama3.1)

help: 명령어 정보 제공 (예: ollama help)

 

 

LLM 모델 선택: 올라마 홈페이지에서 원하는 모델을 선택합니다.

 

 다운로드 명령어 선택: 원하는 모델(①)을 선택하면 ②에 다운로드가 가능한 터미널 명령어가 나옵니다.

복사해서 터미널에 붙여넣기 후 실행합니다.

 

Llama3.1 사용: 설치가 완료되면 그대로 원하는 요청을 하면 됩니다.

기본적인 Llama 3.1 설치가 완료됐습니다!

 

 

이렇게 써도 되지만...

불편하거등요.

파이썬으로 간략하게 연동해봤습니다.

 

직접 해 보니 생각보다 잘 됩니다.

PC에 LLM을 설치해서 가지고 놀아보는 것도 꽤 재미가 있을 듯합니다.

 

 

 

End