Ollama-hpp를 활용한 C++에서 LLM에 invokable 환경 구성하기

https://github.com/jmont-dev/ollama-hpp

해당하는 라이브러리는 Ollama Server에 대한 쿼리를 c++에서 가능하게 해주는 혁신적인 기능을 제공한다!

따라서 c++에서 해당 라이브러리를 사용하면 c++로 LLM을 활용한 챗봇 서비스를 구현하는 것이 이론적으로 가능하다.