Fiszki

Artificial Intelligence_aka_szogun

Test w formie fiszek
Ilość pytań: 50 Rozwiązywany: 732 razy
1. Aglomeracyjne metody klasteryzacji polegają na:
d. stopniowym ograniczaniu klastrów poprzez usuwanie outlierów
c. krokowym dodawaniu linii dzielących klastry w optymalnym miejscu
b. przyrostowym budowaniu klastrów poprzez dodawanie sąsiednich punktów
a. iteracyjnym dzieleniu klastrów na najbardziej odległe połowy
b. przyrostowym budowaniu klastrów poprzez dodawanie sąsiednich punktów
2. Pojęcie tensora występujące często w dziedzinie uczenia głębokiego oznacza:
c. wektor wskazujący kierunek najszybszego spadku błędu sieci
a. wyspecjalizowany rodzaj neuronów przetwarzających obraz
b. warstwę wejściową rozprowadzającą sygnały do sieci
d. uogólnienie pojęcia macierzy na wiele wymiarów
d. uogólnienie pojęcia macierzy na wiele wymiarów
3. Algorytmy genetyczne (ewolucyjne) służą generalnie do realizacji zadań:
a. regresji
b. eksploracji danych zapisanych w chromosomach roślin i zwierząt
c. poszukiwania reguł asocjacyjnych
d. optymalizacji
d. optymalizacji
4. Wskaż metodę NIEPRZYDATNĄ w rozwiązywaniu zadań predykcyjnych:
a. algorytm k-średnich
d. sieć neuronowa typu PERCEPTRON WIELOWARSTWOWY
c. liniowa regresja wieloraka
b. sieć neuronowa typu RBF
a. algorytm k-średnich
5. Technika k-krotnej walidacji krzyżowej służy do:
b. uniknięcia tendencyjności w ocenie jakości modelu
d. ustalenia optymalnego momentu przerwania uczenia modelu
a. wyeliminowania wzajemnych zależności między zmiennymi
c. klasteryzacji zbioru na k maksymalnie odległych skupień
b. uniknięcia tendencyjności w ocenie jakości modelu
6. Algorytm aglomeracyjny rozpoczyna proces analizy od stanu, w którym:
d. każdy obiekt tworzy osobne skupienie
c. obiekty są losowo przydzielone do skupień, a liczba skupień jest z góry określana
a. obiekty podzielone są wstępnie przy użyciu innej metody grupowania
b. wszystkie obiekty tworzą jedno skupenie
d. każdy obiekt tworzy osobne skupienie
7. Argumentem funkcji aktywacji neuronu typu RBF jest
b. iloczyn skalarny wektorów: wejściowego x i wag w
d. odległość wektorów: wejściowego x i wag w
c. ważona liczba wejść danego neuronu
a. suma sygnałów x1 + x2 + ... wektora wejściowego x
d. odległość wektorów: wejściowego x i wag w
8. W pewnym problemie eksploracji danych zmienna wyjściowa (zależna) przyjmuje 3 możliwe wartości: "biały","czerwony", "niebieski". Dany problem zaliczamy do zadań:
b. klasyfikacji bezwzorcowej (grupowania)
d. regresyjnych (szacowanie, predykcja)
c. poszukiwania reguł asocjacyjnych
a. klasyfikacji wzorcowej
a. klasyfikacji wzorcowej
9. Iloczyn skalarny wektora cech z pewnym wektorem wag można traktować jako formę:
b. redukcji wymiarowości
d. ekstrakcji cech
c. regresji liniowej
a. obrotu w przestrzeni cech
c. regresji liniowej
10. Końcowe trzy etapy eksploracji danych w metodologii CRISP-DM to KOLEJNO:
d. Ewaluacja - Modelowanie - Wdrożenie
a. Wdrożenie - Ewaluacja - Modelowanie
b. Modelowanie - Ewaluacja - Wdrożenie
c. Modelowanie - Wdrożenie - Ewaluacja
b. Modelowanie - Ewaluacja - Wdrożenie
11. Istotną WADĄ sieci neuronowych jako modeli eksploracji danych jest:
a. brak zdolności wyjaśniania (uzasadniania) wygenerowanych odpowiedzi
b. nieparametryczność
d. brak zdolności do modelowania zjawisk nieliniowych
c. bardzo długi czas reakcji (odpowiedzi) nauczonej sieci
a. brak zdolności wyjaśniania (uzasadniania) wygenerowanych odpowiedzi
12. Hiperparametrami modelu nazywa się parametry, które:
c. mogą zmieniać się w bardzo szerokim zakresie wartości
a. opisują wagi połączeń pomiędzy całymi warstwami sieci
b. są dopasowywane podczas uczenia do danych wejściowych
d. sterują przebiegiem procesu uczenia modelu
d. sterują przebiegiem procesu uczenia modelu
13. Metoda wzmacniania gradientowego (gradient boosting) służy do:
c. budowania mocnego modelu złożonego z wielu słabszych modeli
b. przyspieszania procesu uczenia głębokich sieci neuronowych
a. zwiększania kontrastu pomiędzy blisko leżącymi klastrami
d. generowania dodatkowych sztucznych próbek w zbiorach uczących
c. budowania mocnego modelu złożonego z wielu słabszych modeli
14. Aby wyeliminować tzw. efekt przeuczenia sieci neuronowej (uczenie nadzorowane), należy uznać za optymalny (ostateczny) zbiór wartości wag, otrzymany w momencie:
c. minimum błędu dla ciągu uczącego
a. zakończenia działania algorytmu uczącego
d. minimum błędu dla ciągu walidacyjnego
b. zidentyfikowania minimum lokalnego funkcji błędu uczącego
d. minimum błędu dla ciągu walidacyjnego
15. Klasyczny (perceptronowy) model neuronu posiada dwa wejścia o wagach w1=1, w2=2, na które podano odpowiednio sygnały x1=−1, x2=+1. Funkcja aktywacji jest funkcją liniową postaci y=2x. Sygnał wyjściowy neuronu wynosi:
b. 2
c. -1
d. 0
a. 1
b. 2
16. Na etapie wstępnej eksploracyjnej analizy danych najmniej przydatne jest:
d. zliczenie wystąpień wartości zmiennych nominalnych
c. wizualne porównanie współzależności par zmiennych
b. użycie metod nienadzorowanej klasteryzacji
a. wygenerowanie histogramów zmiennych ciągłych
a. wygenerowanie histogramów zmiennych ciągłych
17. Wskaż drugi algorytm (metodę), który służy do rozwiązywania tego samego typu problemów eksploracji danych, co algorytm k-najbliższych sąsiadów:
a. algorytm PCA (analiza głównych składowych)
c. algorytm k-średnich
d. algorytm Kohonena (sieć neuronowa typu SOM)
b. algorytm CART (drzewa klasyfikacyjne i regresyjne)
b. algorytm CART (drzewa klasyfikacyjne i regresyjne)
18. Sieć neuronowa Kohonena (SOM) generalnie jest przeznaczona do realizacji:
d. klasyfikacji bezwzorcowej (grupowania)
c. klasyfikacji wzorcowej
a. analizy szeregów czasowych
b. prognozowania lub szacowania wartości
d. klasyfikacji bezwzorcowej (grupowania)
19. Problem klasyfikacyjny mozna zamienic na problem regresyjny poprzez:
c. prognozowanie stopnia przynależności do klasy
a. zamianę zmiennych kategorycznych na ciągłe
d. zredukowanie liczby klas do jednej
b. zmniejszenie liczby wymiarów do dwóch
a. zamianę zmiennych kategorycznych na ciągłe
20. Poszukiwanie zbiorów częstych jest pierwszym etapem:
b. algorytmu k-średnich
a. algorytmu A priori
c. algorytmu wstecznej propagacji błędów
d. algorytmu k-najbliższych sąsiadów
a. algorytmu A priori

Powiązane tematy

Inne tryby