Fiszki

Artificial Intelligence_aka_szogun

Test w formie fiszek
Ilość pytań: 50 Rozwiązywany: 734 razy
1. Aglomeracyjne metody klasteryzacji polegają na:
a. iteracyjnym dzieleniu klastrów na najbardziej odległe połowy
b. przyrostowym budowaniu klastrów poprzez dodawanie sąsiednich punktów
c. krokowym dodawaniu linii dzielących klastry w optymalnym miejscu
d. stopniowym ograniczaniu klastrów poprzez usuwanie outlierów
b. przyrostowym budowaniu klastrów poprzez dodawanie sąsiednich punktów
2. Pojęcie tensora występujące często w dziedzinie uczenia głębokiego oznacza:
b. warstwę wejściową rozprowadzającą sygnały do sieci
d. uogólnienie pojęcia macierzy na wiele wymiarów
c. wektor wskazujący kierunek najszybszego spadku błędu sieci
a. wyspecjalizowany rodzaj neuronów przetwarzających obraz
d. uogólnienie pojęcia macierzy na wiele wymiarów
3. Algorytmy genetyczne (ewolucyjne) służą generalnie do realizacji zadań:
b. eksploracji danych zapisanych w chromosomach roślin i zwierząt
d. optymalizacji
a. regresji
c. poszukiwania reguł asocjacyjnych
d. optymalizacji
4. Wskaż metodę NIEPRZYDATNĄ w rozwiązywaniu zadań predykcyjnych:
d. sieć neuronowa typu PERCEPTRON WIELOWARSTWOWY
a. algorytm k-średnich
c. liniowa regresja wieloraka
b. sieć neuronowa typu RBF
a. algorytm k-średnich
5. Technika k-krotnej walidacji krzyżowej służy do:
d. ustalenia optymalnego momentu przerwania uczenia modelu
c. klasteryzacji zbioru na k maksymalnie odległych skupień
b. uniknięcia tendencyjności w ocenie jakości modelu
a. wyeliminowania wzajemnych zależności między zmiennymi
b. uniknięcia tendencyjności w ocenie jakości modelu
6. Algorytm aglomeracyjny rozpoczyna proces analizy od stanu, w którym:
d. każdy obiekt tworzy osobne skupienie
c. obiekty są losowo przydzielone do skupień, a liczba skupień jest z góry określana
b. wszystkie obiekty tworzą jedno skupenie
a. obiekty podzielone są wstępnie przy użyciu innej metody grupowania
d. każdy obiekt tworzy osobne skupienie
7. Argumentem funkcji aktywacji neuronu typu RBF jest
c. ważona liczba wejść danego neuronu
a. suma sygnałów x1 + x2 + ... wektora wejściowego x
b. iloczyn skalarny wektorów: wejściowego x i wag w
d. odległość wektorów: wejściowego x i wag w
d. odległość wektorów: wejściowego x i wag w
8. W pewnym problemie eksploracji danych zmienna wyjściowa (zależna) przyjmuje 3 możliwe wartości: "biały","czerwony", "niebieski". Dany problem zaliczamy do zadań:
a. klasyfikacji wzorcowej
b. klasyfikacji bezwzorcowej (grupowania)
d. regresyjnych (szacowanie, predykcja)
c. poszukiwania reguł asocjacyjnych
a. klasyfikacji wzorcowej
9. Iloczyn skalarny wektora cech z pewnym wektorem wag można traktować jako formę:
d. ekstrakcji cech
a. obrotu w przestrzeni cech
c. regresji liniowej
b. redukcji wymiarowości
c. regresji liniowej
10. Końcowe trzy etapy eksploracji danych w metodologii CRISP-DM to KOLEJNO:
c. Modelowanie - Wdrożenie - Ewaluacja
b. Modelowanie - Ewaluacja - Wdrożenie
d. Ewaluacja - Modelowanie - Wdrożenie
a. Wdrożenie - Ewaluacja - Modelowanie
b. Modelowanie - Ewaluacja - Wdrożenie
11. Istotną WADĄ sieci neuronowych jako modeli eksploracji danych jest:
b. nieparametryczność
a. brak zdolności wyjaśniania (uzasadniania) wygenerowanych odpowiedzi
d. brak zdolności do modelowania zjawisk nieliniowych
c. bardzo długi czas reakcji (odpowiedzi) nauczonej sieci
a. brak zdolności wyjaśniania (uzasadniania) wygenerowanych odpowiedzi
12. Hiperparametrami modelu nazywa się parametry, które:
a. opisują wagi połączeń pomiędzy całymi warstwami sieci
d. sterują przebiegiem procesu uczenia modelu
b. są dopasowywane podczas uczenia do danych wejściowych
c. mogą zmieniać się w bardzo szerokim zakresie wartości
d. sterują przebiegiem procesu uczenia modelu
13. Metoda wzmacniania gradientowego (gradient boosting) służy do:
c. budowania mocnego modelu złożonego z wielu słabszych modeli
a. zwiększania kontrastu pomiędzy blisko leżącymi klastrami
b. przyspieszania procesu uczenia głębokich sieci neuronowych
d. generowania dodatkowych sztucznych próbek w zbiorach uczących
c. budowania mocnego modelu złożonego z wielu słabszych modeli
14. Aby wyeliminować tzw. efekt przeuczenia sieci neuronowej (uczenie nadzorowane), należy uznać za optymalny (ostateczny) zbiór wartości wag, otrzymany w momencie:
d. minimum błędu dla ciągu walidacyjnego
c. minimum błędu dla ciągu uczącego
b. zidentyfikowania minimum lokalnego funkcji błędu uczącego
a. zakończenia działania algorytmu uczącego
d. minimum błędu dla ciągu walidacyjnego
15. Klasyczny (perceptronowy) model neuronu posiada dwa wejścia o wagach w1=1, w2=2, na które podano odpowiednio sygnały x1=−1, x2=+1. Funkcja aktywacji jest funkcją liniową postaci y=2x. Sygnał wyjściowy neuronu wynosi:
c. -1
a. 1
d. 0
b. 2
b. 2
16. Na etapie wstępnej eksploracyjnej analizy danych najmniej przydatne jest:
d. zliczenie wystąpień wartości zmiennych nominalnych
a. wygenerowanie histogramów zmiennych ciągłych
b. użycie metod nienadzorowanej klasteryzacji
c. wizualne porównanie współzależności par zmiennych
a. wygenerowanie histogramów zmiennych ciągłych
17. Wskaż drugi algorytm (metodę), który służy do rozwiązywania tego samego typu problemów eksploracji danych, co algorytm k-najbliższych sąsiadów:
c. algorytm k-średnich
b. algorytm CART (drzewa klasyfikacyjne i regresyjne)
a. algorytm PCA (analiza głównych składowych)
d. algorytm Kohonena (sieć neuronowa typu SOM)
b. algorytm CART (drzewa klasyfikacyjne i regresyjne)
18. Sieć neuronowa Kohonena (SOM) generalnie jest przeznaczona do realizacji:
d. klasyfikacji bezwzorcowej (grupowania)
a. analizy szeregów czasowych
b. prognozowania lub szacowania wartości
c. klasyfikacji wzorcowej
d. klasyfikacji bezwzorcowej (grupowania)
19. Problem klasyfikacyjny mozna zamienic na problem regresyjny poprzez:
d. zredukowanie liczby klas do jednej
a. zamianę zmiennych kategorycznych na ciągłe
c. prognozowanie stopnia przynależności do klasy
b. zmniejszenie liczby wymiarów do dwóch
a. zamianę zmiennych kategorycznych na ciągłe
20. Poszukiwanie zbiorów częstych jest pierwszym etapem:
b. algorytmu k-średnich
a. algorytmu A priori
c. algorytmu wstecznej propagacji błędów
d. algorytmu k-najbliższych sąsiadów
a. algorytmu A priori

Powiązane tematy

Inne tryby