081576c4a182ae9c42ec720b6cc6d736bc639678
chat-proxy
Progetto di web chat verso motore LLM (proxy) per task chat e supporto coding privato/riservato.
Obiettivi generali
L'obiettivo iniziale è avere un agente AI basato su soluzioni opensource
- da eseguire localmente su HW presente in ufficio
- dove poter effettuare chiaamte anche con codice sorgente proprietario senza temere di inviare info riservate esternamente
- per poter avere un agente sempre disponibile con le risorse allocate
- da poter successivamente addestrare con risorse interne tra cui
- wiki
- sorgenti di codice aziendale
Setup soluzione
La soluzione è basata sul seguente stack
- LM Studio per esecuzione modello LLM locale (al momento su workstation Sam + scheda video AMD e poi NVidia)
- Abilitazione LM Studio x chiamate locali su porta 1234
- virtual machine linux con soluzione backend/frontend di proxy/caching verso il modello AI di LM Studio
Startup
Al momento per l0'esecuzione della soluzione, sulla virtual machine di proxy, vanno avviati backend (python) e frontend (node) manualmente.
Avvio soluzione:
backend
uvicorn main:app --host 0.0.0.0 --port 8000 --reload
frontend
npm run dev
ToDo's: trasformare in servizi da abilitare all'avvio macchina
Usage
Per utilizzare la soluzione basta andare (in ufficio o via vpn) all'indirizzo
e da li fare domande all'AI.
Roadmap
Mancano molti punti di ottimizzazione:
- gestione utenti locali (oauth? openID? user/pwd? username? IP?)
- gestione sessioni indipendenti (setup REDIS da verificare) per gli utenti con history
- miglioramento grafica
- output performances
- test modelli LLM più consistenti con scheda video + capace
- completamento logiche RAG
- fine tuning (o qualunque altra tecnica di post-addestramento) per aggiungere sorgenti private tra cui
- wiki aziendali
- documentazione
- codice sorgente (eventualmente da repo GIT con + versioni)
Versioni
| Versione | Note | Data |
|---|---|---|
| 0.1.2508.2019 | Versione test solo locale con LM Studio | 2025.08.20 |
| 0.1.2508.2119 | Versione con esecuzione locale completa | 2025.08.21 |
| 0.1.2508.2219 | Versione completa e rivisitata graficamente x chat (con memoria sessioni) | 2025.08.22 |
| 0.2.2509.0317 | miglioramento gestione memoria sessioni | 2025.09.03 |
Description
Languages
JavaScript
61.1%
Python
31.7%
CSS
6.2%
HTML
0.7%
Shell
0.3%
