Questo è il sito di Code7Crusader per la documentazione del progetto SWE Unipd 2024/2025.
Ver | Data | Autore | Descrizione |
---|---|---|---|
1.0 | 28/10/2024 | Filippo Rizzolo | Approvazione documento |
0.3 | 22/10/2024 | Filippo Rizzolo | Prima revisione del documento e controllo ortografia |
0.2 | 21/10/2024 | Enrico Cotti Cottini | Aggiunte Presenze |
0.1 | 18/10/2024 | Eddy Pinarello | Prima stesura del documento |
Piattaforma della riunione: Zoom
Ora di Inizio: 11:00
Ora di Fine: 12:00
Componente | Ruolo | Presenza |
---|---|---|
Enrico Cotti Cottini | Responsabile | Presente |
Gabriele Di Pietro | Redattore | Presente |
Tommaso Diviesti | Redattore | Presente |
Francesco Lapenna | Verificatore | Assente |
Matthew Pan | Verificatore | Assente |
Eddy Pinarello | Redattore | Presente |
Filippo Rizzolo | Amministratore | Presente |
Nome | Ruolo |
---|---|
Gianluca Carlesso | Rappresentante Azienda |
Anna Tieppo | Rappresentante Azienda |
Domanda: L’utilizzo di .NET MAUI è un vincolo obbligatorio oppure ci sono altre alternative?
Risposta: No, è facoltativo. Utilizzate ciò che è più comodo per voi per ottenere il risultato.
Domanda: Come possiamo dare le informazioni all’LLM? Ci verrà fornita un’API o della documentazione?
Risposta: Vi forniremo un file contenente le informazioni del contesto di lavoro da cui l’AI apprenderà. Possiamo concordare il formato e recuperare le informazioni dai nostri clienti.
Domanda: Quali sono le domande più frequenti su cui l’AI deve essere allenata?
Risposta: Si può strutturare la chatbot in due modalità: una parte con domande predefinite e una seconda con AI generativa, dove l’LLM elabora la risposta basandosi solo sulla domanda.
Domanda: L’AI che useremo è già pre-addestrata?
Risposta: Sì, l’AI è già pre-addestrata. I modelli vengono allenati su grandi moli di dati, e nel nostro caso, la conoscenza fornita verrà trasmessa ai modelli.
Domanda: Possiamo utilizzare modelli AI diversi da quelli consigliati?
Risposta: Sì, potete utilizzare altri modelli. Vi consigliamo quelli italiani perché potrebbero essere interessanti da approfondire. Se usate modelli proprietari, dovrete utilizzare strumenti black box.
Domanda: Come funziona il modello embedded descritto a pagina 5?
Risposta: Gli LLM utilizzano database vettoriali. Il testo viene tokenizzato e rappresentato come un vettore salvato nel database. Successivamente, l’LLM apprende dai dati forniti per rispondere a domande.
Domanda: Consigliate di usare RAG come database vettoriale?
Risposta: Sì, RAG è uno dei più diffusi e ha molta documentazione disponibile.
Domanda: È possibile rappresentare i dati sotto forma di JSON?
Risposta: Sì, questa è una possibilità. Tuttavia, potrebbe essere necessario un pre-processing dei dati per eliminare eventuali anomalie.
Domanda: Ci sono linee guida per il testing?
Risposta: È preferibile fare i test durante lo sviluppo. Potete creare test-set per verificare che il modello non presenti problemi di overfitting.
Domanda: Quale strumento usa l’azienda per i colloqui?
Risposta: Possiamo utilizzare Zoom o incontrarci in sede.
Domanda: Ci sono state difficoltà con i gruppi precedenti?
Risposta: No, i gruppi sono stati autonomi e ci siamo sentiti settimanalmente via email. Siamo stati soddisfatti del lavoro svolto.