Domande Orale Micheli - Simi

Rispondi
Avatar utente
InformateciBot
Messaggi: 314
Iscritto il: 30/09/2018, 16:33

Post per raccogliere le domande di IIA tenuto da Micheli - Simi

Domande dal vecchio forum, scritte nel 2017:

Se puntate ad un voto alto, dovete necessariamente arrivare con una media alta dei compitini od un voto alto dello scritto. Per determinare il voto finale i prof. si basano su un "delta" che vale al massimo +3 rispetto al voto dello scritto, salvo rari casi particolari.
Se fate i compitini ed avete almeno 18 in entrambi potete verbalizzare senza fare l'orale (per lo meno nell' A.A. 16/17), se nei compiti avete dei voti "sproporzionati" (per esempio 14 nel primo 30 nel secondo) c'è la possibilità di sostenere l'orale sugli argomenti di un solo compitino, ovviamente quello andato peggio (con la Simi per il primo e con Micheli per il secondo).

Per quanto riguarda i prof:
Sulla Simi non mi esprimo, mezz'ora di orale e per un quarto d'ora è rimasta al telefono.
Micheli ottimo, si vede che ci tiene al fatto che gli studenti vadano bene e capiscano a fondo la materia. Pretende comunque precisione anche per le domande che possono sembrare più banali. Gli piace il fatto che vengano fatti collegamenti e confronti tra i vari modelli visti.

Per le domande, in generale, partono dai compiti e poi spaziano su tutto il programma.

Domande Simi:
- Parlare in lungo e largo della regola di risoluzione (completa e corretta? perchè è un buon metodo automatizzabile? differenza tra il suo utilizzo in PROP e FOL).
- Unify, come funziona (a grande linee) e perchè può fallire
- Euristiche: cosa sono, relazioni tra ammissibile e consistente.
- Ottimalità di A* (quando è ottimo e dimostrarlo)

Domande Micheli:
- E' meglio un modello complesso regolarizzato oppure un modello meno complesso? La prima, perchè un modello più complesso di un altro ma regolarizzato fa una ricerca su uno spazio delle ipotesi più ampio rispetto ad uno meno complesso (search bias vs language bias...)
Non mi è stata fatta una domanda precisa, abbiamo discusso e ragionato su model assessment e model selection ed in particolare sulla complessità dei modelli e cosa succede controllandola, facendo collegamenti con il VC-bound.



Corso da 6 crediti
Domande Simi:
Ottimizzazioni della regola di risoluzione del FOL (es. cancellazione tautologie) e strategie di risoluzione (es: risoluzione ordinata).
Completezza e correttezza del PROLOG. Come renderlo corretto e completo.
Domande Micheli:
Come già detto, non sempre fa una domanda precisa. A me è stato chiesto di ragionare sulle relazioni tra modello lineare e SVM e tra SVM e overfitting.
Metodi di controllo dell'overfitting, sia con validazione che con regolarizzazione.


Corso da 6CFU.
Entrambi i prof sono molto tranquilli e simpatici.

Domande Micheli:
- Correzione ai vari errori nello scritto
- Scrivere il modello per il problema della classificazione
- Come si controlla l'overfitting
- K-NN e cosa succede al variare del valore K

Domande Simi:
- Walk-SAT
- Hill-Climbing e Local-Beam, usi e differenze (Hill-Climbing può essere visto come Local-Beam di raggio 1?)
- Complessità del problema KB |= a in PROP e FOL


Orale 23/01/2018
Voto allo scritto: 19,5
Mi ha fatto l'orale Micheli, soltanto sulla sua parte (ML), dopo che non ho voluto farmi convalidare il 20 che mi avrebbe dato senza farmi l'orale.
Domande orale: errori del compito con annesse domande di teoria. In particolare, come si scrive la generalizzazione su base lineare e quanto vale il K grande della sommatoria e la maggiorazione di Vapnik-Chervonenkis. Inoltre mi ha fatto una domanda sul language bias del candidate elimination.
Una volta stabilito che voleva darmi 23 ha detto che potevo tentare di farmi alzare il voto facendo l'orale anche con la Simi, ma non mi interessava. Così l'ha chiamata e mi ha convalidato il voto.

Orale giugno 2018
Voto scritto: 23,75 dai compitini.
In particolare avevo 21 al primo compitino, quindi Micheli mi ha fatto solo una domanda (che ha fatto anche agli altri 2 ragazzi che hanno fatto l'orale lo stesso giorno):

> Come sono collegati VC-Bound e Ridge Regression?

Una volta risposto (bene), mi ha detto che l'avevo convinto e che il voto poteva essere alzato, mandandomi dalla Simi.

Lei partendo dagli errori del compitino mi ha chiesto varie cose:

> Parlami di Walk-SAT, quando non si può usare? Quando invece andrebbe usato?
> Perché A* è considerato un buon algoritmo?
> Quali sono gli algoritmi che migliorano l'occupazione in spazio di A* (RSBF, A* con memoria limitata, Beam Search, IDA*) e quali i loro limiti?

Alla fine mi hanno alzato il voto a 28.

Entrambi molto simpatici e disponibili.
f.consonni
Messaggi: 3
Iscritto il: 03/06/2020, 15:59

Domande Micheli 03/06/2020 (prima parte)
-Disequazione VC-Bound e sua discussione
-Ridge Regression, iperparametro Lambda e come si collega alla VC Bound
-Definizione Vettore di Supporto
-Discutere su come si può controllare l'overfitting e sulla validazione in generale
-Definizione di overfitting (ricollegato alla domanda sopra)
-Funzione Loss nella Ridge Regression nei casi di regressione / classificazione
-Ruolo di C nella SVM
-Algoritmo 1nn e sua discussione
ThePuccio
Messaggi: 4
Iscritto il: 18/02/2019, 14:36

Orale fatto il 5/6 solo con la Simi. Partivo da B nel test scritto. In generale chiede cosa si è sbagliato nel test. A me ha chiesto:
- BF e ID perché trovano la stessa soluzione (più parlare di ottimalitá e completezza) e riferimenti tra ID e DF.
- Completezza in generale + esempi.
- CSP.
- Trasformazione in forma a clausole di esiste x t.c. p(x). Bisogna negare il goal, ma occhio a negare e skolemizzare subito p(x). Bisogna prima mettere il not davanti l'esistenziale e quindi diventa un per ogni.

Ho risposto bene a quasi tutto e mi ha messo 27. In generale è difficile che vada oltre se non si è preso A. Lei e Micheli si basano molto sul test.

Ho assistito anche ad altri orali e in generale
il Micheli è molto più puntiglioso (a volte non si riesce proprio a capire cosa voglia sentirsi dire), ma fa meno domande (orali durano in media 15-20 minuti). La Simi invece fa più domande (specialmente se si è insicuri), infatti alcuni orali sono durati anche più di mezz'ora.

Anche se si parte da C è comunque difficile essere bocciati.
Fausto
Messaggi: 6
Iscritto il: 07/04/2019, 20:25

Micheli:
- domande relative alle risposte sbagliate che ho dato al test
- regolarizzazione
- indicare i modelli dove abbiamo visto l'underfitting e overfitting
- Nel modello K-nn qual è il parametro per regolarizzare l'underfitting e l'overfitting
- Scrivere il kernel RBF

Simi:
- parlare del fol_fc_ask
- risolvere con l'algoritmo unify P(A,x,f(x)) P(A,b,y) (l'algoritmo ritorna { x/B, y/f(B) })
Avatar utente
gabrieletedeschi
Messaggi: 1
Iscritto il: 26/06/2020, 21:07

Voto entrata:A
Simi:
Grounding per il fol
Dimostrazione dell'ottimalitá di A* su grafo
Teorema di risoluzione

Micheli:
Confronto e vantaggi di SVM rispetto a modelli lineari
p3sc4
Messaggi: 4
Iscritto il: 24/07/2019, 15:47

Domande terzo appello 24/07/2020
Micheli:
-Regolarizzazione di Tikhonov
-Linear Basic Expansion
-Come trovo i w per un modello lineare?
-SVM Hard Margin e Soft Margin
-Loss di regressione e di classificazione
-Bias Induttivo
-Entropia, Information Gain, Gain Ratio
-Bias Induttivo di Find-s, di Candidate Elimination e di Decision Tree.
-Cos'è un sistema di apprendimento supervisionato?
- Quand'è che una funzione di ML è buona?
-Equazione Duale dell'SVM
-Kernel e vari tipi
-Nel Decision Tree da cosa dipende la complessità?
-Come la faccio la tecnica di pruning?
-Training Set, Validation Set e Test Set
-Cos'è la VC-Confidence?
-Il pruning riduce il Vc-Confidence?

Simi:
-Algoritmo A* ricerca a grafo
-Ricerca ad albero e a grafo
-La UC è ottimale?
-Forward Checking e Arc-Consistency
-Come si arriva alla risoluzione SLD?
-Algoritmi SAT
-Il problema della soddisfacibilità per il prop è deducibile?
-Come risolve i problemi di minimi locali il WalkSat
-Correttezza e Completezza
-Come si progetta un euristica efficace da usare con l'algoritmo A
-Come fa una regola di inferenza ad essere corretta?
-IDA*, Beam Search
g.trapani
Messaggi: 5
Iscritto il: 28/01/2021, 21:32

Domande appello settembre 2021

M -> Micheli
S -> Simi

- Parlare della Loss. M
- Parlare di Information Gain ed entropia. M
- Definire la VC dimension. M
- Parlare delle euristiche in CSP. S
- Parlare delle due definizioni di completezza viste durante il corso. S
- Parlare di A*. S
- Dare tutte le definizioni di vettori di supporto. M
- Parlare del metodo di risoluzione nel caso di FOL: è completo? S
- Parlare di K-Means. M
- Scrivere h(x) risolta dal duale in SVM. A che serve il kernel? Scrivere alcuni kernel noti. M
- Per quale motivo si introduce SVM? M
- Come confrontare euristiche ammissibili (caso in cui una domina / massimo di euristiche / combinazioni lineari)? S
- Gli algoritmi per la soddisfacibilità nel caso proposizionale; dpll/tt-entails possono essere usati per la conseguenza logica nel caso proposizionale? S
- Perché i CSP consentono di risolvere più efficacemente determinati problemi rispetto alla formulazione equivalente come problem solving? S
- Si può rinunciare al bias induttivo? M
- Cosa si preferisce tra un modello che va in underfitting e uno in overfitting? M
Rispondi

Torna a “[IIA] Introduzione all'intelligenza artificiale”