]> www.fi.muni.cz Git - pan12-paper.git/blob - yenya-detailed.tex
yenya: odkomentovany odstavce, ktere jsem zakomentoval kvuli zkraceni extended abstractu
[pan12-paper.git] / yenya-detailed.tex
1 \section{Detailed Document Comparison}
2
3
4 \subsection{General Approach}
5
6 Our approach in PAN 2012 Plagiarism detection---Detailed comparison sub-task
7 is loosely based on the approach we have used in PAN 2010 \cite{Kasprzak2010}.
8
9 The algorithm evaluates the document pair in several stages:
10
11 \begin{itemize}
12 \item intrinsic plagiarism detection
13 \item language detection of the source document
14 \begin{itemize}
15 \item cross-lingual plagiarism detection, if the source document is not in English
16 \end{itemize}
17 \item detecting intervals with common features
18 \item post-processing phase, mainly serves for merging the nearby common intervals
19 \end{itemize}
20
21 \subsection{Intrinsic plagiarism detection}
22
23 Our approach is based on character $n$-gram profiles of the interval of
24 the fixed size (in terms of $n$-grams), and their differences to the
25 profile of the whole document \cite{pan09stamatatos}. We have further
26 enhanced the approach with using gaussian smoothing of the style-change
27 function \cite{Kasprzak2010}.
28
29 For PAN 2012, we have experimented with using 1-, 2-, and 3-grams instead
30 of only 3-grams, and using the different measure of the difference between
31 the n-gram profiles. We have used an approach similar to \cite{ngram},
32 where we have compute the profile as an ordered set of 400 most-frequent
33 $n$-grams in a given text (the whole document or a partial window). Apart
34 from ordering the set, we have ignored the actual number of occurrences
35 of a given $n$-gram altogether, and used the value inveresly
36 proportional to the $n$-gram order in the profile, in accordance with
37 the Zipf's law \cite{zipf1935psycho}.
38
39 This approach has provided more stable style-change function than
40 than the one proposed in \cite{pan09stamatatos}. Because of pair-wise
41 nature of the detailed comparison sub-task, we couldn't use the results
42 of the intrinsic detection immediately, therefore we wanted to use them
43 as hints to the external detection.
44
45 \subsection{Cross-lingual Plagiarism Detection}
46
47 For language detection, we used the $n$-gram based categorization \cite{ngram}.
48 We have computed the language profiles from the source documents of the
49 training corpus (using the annotations from the corpus itself). The result
50 of this approach was better than using the stopwords-based detection we have
51 used in PAN 2010. However, there were still mis-detected documents,
52 mainly the long lists of surnames and other tabular data. We have added
53 an ad-hoc fix, where for documents having their profile too distant from all of
54 English, German, and Spanish profiles, we have declared them to be in English.
55
56 For cross-lingual plagiarism detection, our aim was to use the public
57 interface to Google translate if possible, and use the resulting document
58 as the source for standard intra-lingual detector.
59 Should the translation service not be available, we wanted
60 to use the fall-back strategy of translating isolated words only,
61 with the additional exact matching of longer words (we have used words with
62 5 characters or longer).
63 We have supposed that these longer words can be names or specialized terms,
64 present in both languages.
65
66 We have used dictionaries from several sources, like
67 {\it dicts.info}\footnote{\url{http://www.dicts.info/}},
68 {\it omegawiki}\footnote{\url{http://www.omegawiki.org/}},
69 and {\it wiktionary}\footnote{\url{http://en.wiktionary.org/}}. The source
70 and translated document were aligned on a line-by-line basis.
71
72 In the final form of the detailed comparison sub-task, the results of machine
73 translation of the source documents were provided to the detector programs
74 by the surrounding environment, so we have discarded the language detection
75 and machine translation from our submission altogether, and used only
76 line-by-line alignment of the source and translated document for calculating
77 the offsets of text features in the source document. We have then treated
78 the translated documents the same way as the source documents in English.
79
80 \subsection{Multi-feature Plagiarism Detection}
81
82 Our pair-wise plagiarism detection is based on finding common passages
83 of text, present both in the source and in the suspicious document. We call them
84 {\it common features}. In PAN 2010, we have used sorted word 5-grams, formed from
85 words of three or more characters, as features to compare.
86 Recently, other means of plagiarism detection have been explored:
87 stopword $n$-gram detection is one of them
88 \cite{stamatatos2011plagiarism}.
89
90 We propose the plagiarism detection system based on detecting common
91 features of various types, for example word $n$-grams, stopword $n$-grams,
92 translated single words, translated word bigrams,
93 exact common longer words from document pairs having each document
94 in a different language, etc. The system
95 has to be to the great extent independent of the specialities of various
96 feature types. It cannot, for example, use the order of given features
97 as a measure of distance between the features, as for example, several
98 word 5-grams can be fully contained inside one stopword 8-gram.
99
100 We therefore propose to describe the {\it common feature} of two documents
101 (susp and src) with the following tuple:
102 $\langle
103 \hbox{offset}_{\hbox{susp}},
104 \hbox{length}_{\hbox{susp}},
105 \hbox{offset}_{\hbox{src}},
106 \hbox{length}_{\hbox{src}} \rangle$. This way, the common feature is
107 described purely in terms of character offsets, belonging to the feature
108 in both documents. In our final submission, we have used the following two types
109 of common features:
110
111 \begin{itemize}
112 \item word 5-grams, from words of three or more characters, sorted, lowercased
113 \item stopword 8-grams, from 50 most-frequent English words (including
114         the possessive suffix 's), unsorted, lowercased, with 8-grams formed
115         only from the seven most-frequent words ({\it the, of, a, in, to, 's})
116         removed
117 \end{itemize}
118
119 We have gathered all the common features of both types for a given document
120 pair, and formed {\it valid intervals} from them, as described
121 in \cite{Kasprzak2009a}. A similar approach is used also in
122 \cite{stamatatos2011plagiarism}.
123 The algorithm is modified for multi-feature detection to use character offsets
124 only instead of feature order numbers. We have used valid intervals
125 consisting of at least 5 common features, with the maximum allowed gap
126 inside the interval (characters not belonging to any common feature
127 of a given valid interval) set to 3,500 characters.
128
129 We have also experimented with modifying the allowed gap size using the
130 intrinsic plagiarism detection: to allow only shorter gap if the common
131 features around the gap belong to different passages, detected as plagiarized
132 in the suspicious document by the intrinsic detector, and allow larger gap,
133 if both the surrounding common features belong to the same passage,
134 detected by the intrinsic detector. This approach, however, did not show
135 any improvement against allowed gap of a static size, so it was omitted
136 from the final submission.
137
138 \subsection{Postprocessing}
139
140 In the postprocessing phase, we took the resulting valid intervals,
141 and made attempt to further improve the results. We have firstly
142 removed overlaps: if both overlapping intervals were
143 shorter than 300 characters, we have removed both of them. Otherwise, we
144 kept the longer detection (longer in terms of length in the suspicious document).
145
146 We have then joined the adjacent valid intervals into one detection,
147 if at least one of the following criteria has been met:
148 \begin{itemize}
149 \item the gap between the intervals contained at least 4 common features,
150 and it contained at least one feature per 10,000
151 characters\footnote{we have computed the length of the gap as the number
152 of characters between the detections in the source document, plus the
153 number of charaters between the detections in the suspicious document.}, or
154 \item the gap was smaller than 30,000 characters and the size of the adjacent
155 valid intervals was at least twice as big as the gap between them, or
156 \item the gap was smaller than 30,000 characters and the number of common
157 features per character in the adjacent interval was not more than three times
158 bigger than number of features per character in the possible joined interval.
159 \end{itemize}
160
161 These parameters were fine-tuned to achieve the best results on the training corpus. With these parameters, our algorithm got the total plagdet score of 0.73 on the training corpus.
162
163 \subsection{Further discussion}
164
165 As in our PAN 2010 submission, we tried to make use of the intrinsic plagiarism
166 detection, but despite making further improvements to the intrinsic plagiarism detector, we have again failed to reach any significant improvement
167 when using it as a hint for the external plagiarism detection.
168
169 In the full paper, we will also discuss the following topics:
170
171 \begin{itemize}
172 \item language detection and cross-language common features
173 \item intrinsic plagiarism detection
174 \item suitability of plagdet score\cite{potthastframework} for performance measurement
175 \item feasibility of our approach in large-scale systems
176 \item discussion of parameter settings
177 \end{itemize}
178
179 \nocite{pan09stamatatos}
180 \nocite{ngram}
181
182