Code 7 Crusaders

Questo è il sito di Code7Crusader per la documentazione del progetto SWE Unipd 2024/2025.

Code7Crusaders Github

About
Get in Contact

Verbale esterno Ergon 18/10/2024

Versioni

Ver Data Autore Descrizione
1.0 28/10/2024 Filippo Rizzolo Approvazione documento
0.3 22/10/2024 Filippo Rizzolo Prima revisione del documento e controllo ortografia
0.2 21/10/2024 Enrico Cotti Cottini Aggiunte Presenze
0.1 18/10/2024 Eddy Pinarello Prima stesura del documento

Registro Presenze

Piattaforma della riunione: Zoom
Ora di Inizio: 11:00
Ora di Fine: 12:00

Membri del Team

Componente Ruolo Presenza
Enrico Cotti Cottini Responsabile Presente
Gabriele Di Pietro Redattore Presente
Tommaso Diviesti Redattore Presente
Francesco Lapenna Verificatore Assente
Matthew Pan Verificatore Assente
Eddy Pinarello Redattore Presente
Filippo Rizzolo Amministratore Presente

Rappresentanti Azienda

Nome Ruolo
Gianluca Carlesso Rappresentante Azienda
Anna Tieppo Rappresentante Azienda

Verbale dell’incontro

Utilizzo di .NET MAUI

Domanda: L’utilizzo di .NET MAUI è un vincolo obbligatorio oppure ci sono altre alternative?
Risposta: No, è facoltativo. Utilizzate ciò che è più comodo per voi per ottenere il risultato.

Fornitura di informazioni all’LLM

Domanda: Come possiamo dare le informazioni all’LLM? Ci verrà fornita un’API o della documentazione?
Risposta: Vi forniremo un file contenente le informazioni del contesto di lavoro da cui l’AI apprenderà. Possiamo concordare il formato e recuperare le informazioni dai nostri clienti.

Domande frequenti per l’allenamento dell’AI

Domanda: Quali sono le domande più frequenti su cui l’AI deve essere allenata?
Risposta: Si può strutturare la chatbot in due modalità: una parte con domande predefinite e una seconda con AI generativa, dove l’LLM elabora la risposta basandosi solo sulla domanda.

Chiarimento sull’AI

Domanda: L’AI che useremo è già pre-addestrata?
Risposta: Sì, l’AI è già pre-addestrata. I modelli vengono allenati su grandi moli di dati, e nel nostro caso, la conoscenza fornita verrà trasmessa ai modelli.

Utilizzo di modelli proprietari

Domanda: Possiamo utilizzare modelli AI diversi da quelli consigliati?
Risposta: Sì, potete utilizzare altri modelli. Vi consigliamo quelli italiani perché potrebbero essere interessanti da approfondire. Se usate modelli proprietari, dovrete utilizzare strumenti black box.

Modello embedded a pagina 5

Domanda: Come funziona il modello embedded descritto a pagina 5?
Risposta: Gli LLM utilizzano database vettoriali. Il testo viene tokenizzato e rappresentato come un vettore salvato nel database. Successivamente, l’LLM apprende dai dati forniti per rispondere a domande.

Utilizzo di RAG come database vettoriale

Domanda: Consigliate di usare RAG come database vettoriale?
Risposta: Sì, RAG è uno dei più diffusi e ha molta documentazione disponibile.

Rappresentazione dei dati in formato JSON

Domanda: È possibile rappresentare i dati sotto forma di JSON?
Risposta: Sì, questa è una possibilità. Tuttavia, potrebbe essere necessario un pre-processing dei dati per eliminare eventuali anomalie.

Fasi di testing del prodotto

Domanda: Ci sono linee guida per il testing?
Risposta: È preferibile fare i test durante lo sviluppo. Potete creare test-set per verificare che il modello non presenti problemi di overfitting.

Strumenti per colloqui e chiarimenti

Domanda: Quale strumento usa l’azienda per i colloqui?
Risposta: Possiamo utilizzare Zoom o incontrarci in sede.

Esperienza con i gruppi precedenti

Domanda: Ci sono state difficoltà con i gruppi precedenti?
Risposta: No, i gruppi sono stati autonomi e ci siamo sentiti settimanalmente via email. Siamo stati soddisfatti del lavoro svolto.

Download

🐙 Scarica PDF da GitHub