forked from spbu-se/matmex-diploma-template
-
Notifications
You must be signed in to change notification settings - Fork 1
/
070experiment.tex
44 lines (30 loc) · 2.4 KB
/
070experiment.tex
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
% !TeX spellcheck = ru_RU
% !TEX root = vkr.tex
Как мы проверяем, что всё удачно получилось
\subsection{Условия эксперимента}
Железо (если актуально); входные данные, на которых проверяем наш подход; почему мы выбрали именно эти тесты
\subsection{Исследовательские вопросы (Research questions)}
Надо сформулировать то, чего мы хотели бы добиться работой (2 штуки будет хорошо):
\begin{itemize}
\item Хотим алгоритм, который лучше вот таких-то остальных
\item Если в подходе можно включать/выключать составляющие, то насколько существенно каждая составляющая влияет на улучшения
\item Если у нас строится приближение каких-то штук, то на сколько точными будут эти приближения
\item и т.п.
\end{itemize}
\subsection{Метрики}
Как мы сравниваем, что результаты двух подходов лучше или хуже
\begin{itemize}
\item Производительность
\item Строчки кода
\item Как часто алгоритм "угадывает" правильную классификацию входа
\end{itemize}
Иногда метрики вырожденные (да/нет), это не очень хорошо, но если в области исследований так принято, то ладно.
\subsection{Результаты}
Результаты понятно что такое. Тут всякие таблицы и графики
В этом разделе надо также коснуться Research Questions.
\subsubsection{RQ1} Пояснения
\subsubsection{RQ2} Пояснения
\clearpage
\input{bigtable}
\subsection{Обсуждение результатов}
Чуть более неформальное обсуждение, то, что сделано. Например, почему метод работает лучше остальных? Или, что делать со случаями, когда метод классифицирует вход некорректно.