Open WebUI에서 LM Studio 연결하기
LM Studio로 LLM 모델들을 잘 구동시키고있는데요.
로컬에서의 잘되는데 외부에서도 쓰고싶어서 Open WebUI를 연동해봤습니다.
기본적으로 Ollama, ChatGPT와 궁합도 맞지만 LM Studio오 API 호환이 되어서 연결이 가능합니다.
LM Studio에서는 Server Port와 Serve on Local 를 켜주시면되고
Open WebUI에서는 관리자 설정에서 연결 -> Open AI API Connections에 IP:Port로 너
그리고 우측에 설정부분에서새로고침을해보면 연결이 잘 되는지 확인가능합니다.
그리고 다시 메인화면으로 가보면 모델을 선택할 수 있습니다.
마지막 Safe mode는 뭔지모르겠지만 ㅎ..
이상태에서 reverse proxy로 연결시켜놓으면 외부에서도 접근해서 gpt처럼 사용할 수 있습니다.