Files
2025-09-05 18:03:56 +02:00

75 lines
2.6 KiB
Markdown

# chat-proxy
Progetto di web chat verso motore LLM (proxy) per task chat e supporto coding privato/riservato.
## Obiettivi generali
L'obiettivo iniziale è avere un agente AI basato su soluzioni opensource
* da eseguire localmente su HW presente in ufficio
* dove poter effettuare chiaamte anche con codice sorgente proprietario senza temere di inviare info riservate esternamente
* per poter avere un agente sempre disponibile con le risorse allocate
* da poter successivamente addestrare con risorse interne tra cui
* wiki
* sorgenti di codice aziendale
## Setup soluzione
La soluzione è basata sul seguente stack
* LM Studio per esecuzione modello LLM locale (al momento su workstation Sam + scheda video AMD e poi NVidia)
* Abilitazione LM Studio x chiamate locali su porta 1234
* virtual machine linux con soluzione backend/frontend di proxy/caching verso il modello AI di LM Studio
![alt text](Copilot_20250822_144055.png)
## Startup
Al momento per l0'esecuzione della soluzione, sulla virtual machine di proxy, vanno avviati backend (python) e frontend (node) manualmente.
Avvio soluzione:
backend
```bash
uvicorn main:app --host 0.0.0.0 --port 8000 --reload
```
frontend
```bash
npm run dev
```
ToDo's: trasformare in servizi da abilitare all'avvio macchina
## Usage
Per utilizzare la soluzione basta andare (in ufficio o via vpn) all'indirizzo
https://chat.egalware.com
e da li fare domande all'AI.
## Roadmap
Mancano molti punti di ottimizzazione:
- [ ] gestione utenti locali (oauth? openID? user/pwd? username? IP?)
- [ ] gestione sessioni indipendenti (setup REDIS da verificare) per gli utenti con history
- [ ] miglioramento grafica
- [ ] output performances
- [ ] test modelli LLM più consistenti con scheda video + capace
- [ ] completamento logiche RAG
- [ ] fine tuning (o qualunque altra tecnica di post-addestramento) per aggiungere sorgenti private tra cui
- [ ] wiki aziendali
- [ ] documentazione
- [ ] codice sorgente (eventualmente da repo GIT con + versioni)
## Versioni
| Versione | Note | Data |
|---------------|-----------------------------------------|------------|
| 0.1.2508.2019 | Versione test solo locale con LM Studio | 2025.08.20 |
| 0.1.2508.2119 | Versione con esecuzione locale completa | 2025.08.21 |
| 0.1.2508.2219 | Versione completa e rivisitata graficamente x chat (con memoria sessioni) | 2025.08.22 |
| 0.2.2509.0317 | Miglioramento gestione memoria sessioni | 2025.09.03 |
| 0.3.2509.0515 | Gestione visualizzazione elenco modelli + selezione x sessioni (e x nuove sessioni) del modello richiesto | 2025.09.05 |