Есть 2 пути для взаимодействия с моделью через endpoint-ы:
- LM Studio.
- Свой сервис-wrapper над LLAMA.cpp. В каждом из путей необходимо установить GGUF модель одним файлом.
- OpenSSH
При использовании LM Studio с его endpint-ами нельзя напрямую перенаправлять порт, для этого необходимо запустить велосипед на домашнем стенде для перенаправления порта, а также развернуть p2p подключение с сервером при помощи
ssh -R port-output-server:localhost:port-input-llm-or-proxy-script user-name@server-ip
для отладки можно использовать -v
- OpenVPN or WireGuard
todo
Запускаем прокси-сервер, также незабываем поменять ключ аутентификации чтобы вашим сервером не начала пользоваться добрая половина Китая и Бразилии