Vous êtes sur la page 1sur 4

Am transpus subiectele din imaginile de pe grupul celalalt in text, impreuna cu

raspunsurile pe care le cred eu valide (atentie - am raspuns din memorie/intuiti


e, voi confrunta apoi cu teoria):
=============
Curs 2
3) "Binning Methods for Data Smoothing":
daca avem o ... netezirea folosind capetele intervalului
("smoothing by bin boundaries") obtinem:
a. 9, 9, 9, 9
_b. 4, 4, 15, 15
_c. 4, 4, 4, 15
4) In cazul discretizarii utilizand impartirea in benzi egale
("equi-width binning") cu latime = 10,
pentru valorile 0, 4, 12, 16, 16, 18, 24, 26, 38 obtinem:
a. 3 benzi
_b. 4 benzi
c. 5 benzi
==============
Curs 3
5) In cazul gasirii multimilor frecvente in datele de vanzari ale unui supermark
et,
reducere dimensionalitatii ("Dimensionality reduction") trebuie sa pastreze:
a. Pretul
_b. Produsul
c. Furnizorul
6) Din principiul Apriori rezulta ca daca avem doua multimi
frecvente A si B atunci si X este frecventa, unde:
_a. X = A intersectat cu B
b. X = A reunit cu B
c. X = A x B
!!!7) Daca A este o multime frcventa si s este pragul de suport atunci:
a. Fiecare articol din A este in cel putin s% tranzactii
?b. A ca multime este in cel putin s% tranzactii
_c. Si a si b sunt adevarate
8) Pentru 10.000 de tranzatii cu 10 articole fiecare si s = 10.000 putem avea ce
l mult:
a. 1 articol frecvent
_b. 10 articole frecvente
c. 100 articole frecvente
9) Tranzactii: { (1, 2, 3), (2, 3, 4), (3, 4, 5) } ; s = 50%. Atunci numarul de
articole frecvente este:
_a. 3
b. 4
c. 5
10) Tranzactii: { (1, 2, 3, 5), (2, 3, 4), (3, 4, 5) } ; s= 50%. Atunci numarul
de perechi frecvente este:
a. 1
b. 2
_c. 3
11) Tranzactii: { (1, 2, 3, 5), (2, 3, 4, 5), (3, 4, 5) } ; s = 50%. Suportul re
gulii {3} --> {5} este:
_a. 100%
b. 33%

c. 66%
12) Tranzactii: { (1, 2, 3, 5), (2, 4, 5), (3, 4, 5) } ; s = 50%. Increderea reg
ulii {5} --> {3} este:
a. 100%
_b. 66%
c. 20%
13) O "class association rule" A1 A2 A3 A4 --> C cu 4 articole in stanga poate f
i obtinuta in
a. 1 pas
_b. 4 pasi
c. 5 pasi
===============================
14) Cand datele (observatii, masuratori etc.) sunt etichetate cu clase predefini
te avem:
a. Reguli de asociere
_b. Invatare supervizata
c. Invatare nesupervizata
15) Cand etichetele de clasa pentru date nu sunt cunoscute avem
a. Reguli de asociere
b. Invatare supervizata
_c. Invatare nesupervizata
16) Daca din 200 din cazuri de teste 50 sunt clasificate gresit acuratetea este
egala cu:
a. 25%
b. 50%
_c. 75%
!!!17) Un arbore de decizie poate fi convertit (in cazul general) in
_a. Un set de reguli
b. O regula complexa
c. Atat a cat si b sunt false
!!18) In teoria informatiei pe masura ce datele dintr-un set de date
devin mai pure valoarea entropiei
_a. devine mai mica
b. devine mai mare
c. uneori creste alteori scade
19) Endtropie(D) = -Sum(j) [ Pr(c_j) * log2 Pr(c_j) ]. Daca D are 100% exemple p
ozitive entropia este:
a. 1
_b. 0
c. -1
20) Daca D are 50% exemple pozitive si 50% exemple negative atunci entropia este
:
_a. 1
b. 0
c. -1
!!!21) Cand construim un arbore de decizie in C4,5m pentru ramificare se foloses
te atributul care:
a. Minimizeaza castigul informational (information gain)
_b. Minimizeaza entropia
c. Atat a cat si b sunt adevarate

!!!22) Pentru evitarea fenomenului de overfitting in clasificare putem folosi:


a. Doar Pre-pruning
?b. Doar Post-pruning
_c. Atat a cat si b sunt adevarate
!!!23) Cand lucram doar cu exemple pozitive sau negative si avem un clasificator
care eticheteaza corect 50% din toate exemplele,
pentru un set de 100 pozitive si 200 negative, precizia P va fi de:
a. 33%
_b. 50%
c. 75%
24) In acelasi caz, R (recall) este:
a. 33%
_b. 50%
c. 40%
25) In acelasi caz, scorul F1 (f1-score) este:
a. 66%
_b. 50%
c. 40%
26) Fie o scoala avand 60% elevi si 40% eleve.
Elevele poarta sort sau fusta in proportii egale iar baietii doar sort.
Un observator vede la mare distanta o persoana purtand sort.
Care este probabilitatea ca persoana respectiva sa fie o eleva (din wikipedia)?
a. 80%
_b. 25%
c. 40%
27) Rezultatul algoritmului K-Means sunt influentate de:
a. Puncre disparate (Outliers)
b. Centroizii intiali
_c. Atat a cat si b sunt adevarate
!!!28) Algoritmul K-Means nu este potrivit pentru a gsi clustere care:
_a. Nu sunt hiper-elipsoizi (sau hiper-sfere)
b. Sunt hiper-elipsoizi (sau hiper-sfere)
c. Atat a cat si b sunt false
29) Clustering-ul ierarhic produce o secventa de clustere imbricate denumita si:
a. Dendtron
_b. Dendrograma
c. Dendromus
30) Distanta 1D intre (1, 2, 3) si (4, 5, 6) utilizand metoda "single link" este
:
_a. 1
b. 3
c. 5
31) Distanta 1D intre (1, 2, 3) si (4, 5, 6) utilizand metoda "complete link" es
te:
a. 1
b. 3
_c. 5
32) Distanta 1D intre (1, 2, 3) si (1, 5, 6) utilizand metoda centroizilor este:
a. 1
_b. 3

c. 5
33) Invatarea PU ("PU learning") vine de la:
a. Positive and uncertain examples
_b. Positive and unlabeled examples
c. Positive and unpositive examples
34) Cand integram doua scheme trebuie ca mai inainte sa efectuam operatii ca:
a. Implosion si Stemming
b. Tokenization si Boosting
_c. Stemming si Expansion
35) Sesionizarea inseamna:
a. Impunerea unor sesiuni
b. Identificarea userilor
_c. Identificarea sesiunilor
36) Alegeti:
_a. Un Data warehouse contine Data marts
b. Un Data mart contine Data Warehouse
c. Atat a cat si b sunt false
37) Alegeti:
a. O tabela de fapte (Facts) poate fi asociata cu mai multe dimensiuni
b. O tabela de dimensiuni poate fi asociata cu mai multe tabele de fapte
_c. Atat a cat si b sunt adevarate
38) Alegeti:
a. Putem obtine schema fulg-de-nea ("snow-flake") din schema star prin denormali
zare
_b. Putem obtine schema star din ful-de-nea prin denormalizare
c. Atat a cat si b sunt adevarate
!!39) Declararea granulei ("grain") inseamna a specifica:
a. Ce reprezinta o coloana din tabela de fapte
_b. Ce reprezinta o linie din tabela de fapte
c. Atat a cat si b sunt false
40) Abordari in Data Warehousing sunt:
_a. Abordarea dimensionala
b. Abordarea relationala
c. Atat a cat si b sunt adevarate
Recapitulare pentru cei ce nu primesc in format HTML:
3-b, 4-b, 5-b, 6-a, 7-b, 8-b, 9-a, 10-c, 11-a, 12-b, 13-b, 14-b, 15-c, 16-c, 17a, 18-a, 19-b, 20-a, 21-b, 22-b, 23-a, 24-b, 25-c, 26-b, 27-c, 28-a, 29-b, 30-a,
31-c, 32-b, 33-b, 24-c, 25-c, 36-a, 37-a, 38-a, 39-b, 40-a

Vous aimerez peut-être aussi