knitr::opts_chunk$set(echo = FALSE)
source("./experiments-results-summary.R")

Wstęp

Reprezentacja k-merowa

Motywacja i cel pracy

Dane

Losowo generowane sekwencje:

Losowo generowane motywy:

Metody

Filtry rankingowe + testy: QuiPT, $\chi^2$ + SU, IG, GR + Information-Based: NJMIM, MRMR, JMIM, JMI, DISR
Filtry nierankingowe + FCBF + QuiPT + $\chi^2$

Analiza metod filtrowania k-merów

Schemat ewaluacji: + rankingi: siatka $k$-merów: $1-128, 2^i,8 \leq i \leq 12$ + metryki: AUC, dokładność i inne + 5-fold CV
Modele: + LASSO + Random Forest + Naive Bayes + k-NN

Eksperymenty

Eksperyment I

Eksperyment II

Exp I - Baseline (1 motyw, 300 sekwencji) - wyniki

plot_times(total_times)

Wyniki cd.

model = "LR LASSO"
metrics = c("Accuracy", "Sensitivity", "AUC")
knitr::kable(table_nonranking(nonranking_results, model, metrics))

Wyniki cd.

plot_ranking_results(ranking_results, "AUC")

Pytanie I

Jak prezentować wyniki?

Eksperyment III

Eksperyment IV

Pytanie 2

Pytanie 3 - Analiza filtrowanych k-merów

Czy porównanie podzbiorów $k$-merów jest sensowne?

Pomysły:

Dziękuję za uwagę!



jakubkala/QuiPTsim documentation built on Jan. 17, 2022, 11:27 p.m.