]> www.fi.muni.cz Git - pan12-paper.git/blobdiff - paper.tex
Prvni velky proofreading + dodelavky
[pan12-paper.git] / paper.tex
index 361dc371ea727446c812402c2e50d8bbcf50a56f..8e042ef485eb1340d00c25f8bb16151a02b28cf0 100755 (executable)
--- a/paper.tex
+++ b/paper.tex
 \maketitle
 
 \begin{abstract}
-In this paper, we describe our approach in PAN 2012 competition.
-Our candidate retrieval system is based on TODO Simon.
+In this paper, we describe our approach at the PAN 2012 plagiarism detection competition.
+Our candidate retrieval system is based on extraction of three different types of
+web queries with narrowing their execution by skipping certain passages of an input document.
 
-Our detailed comparison system detects common features of both
-documents, computing valid intervals from them, and then merging
+Our detailed comparison system detects common features of input  
+document pair, computing valid intervals from them, and then merging
 some detections in the postprocessing phase. We also discuss
 the relevance of current PAN 2012 settings to the real-world
 plagiarism detection systems.
@@ -41,26 +42,30 @@ plagiarism detection systems.
 
 
 Due to the increasing ease of plagiarism the plagiarism detection has nowadays become a need for many institutions.
-Especially for universities where modern learning methods include e-learning and a vast document sources are online available.
+Especially for universities where modern learning methods include e-learning and vast document sources are available online.
 %In the Information System of Masaryk University~\cite{ismu} there is also an antiplagiarism tool which is based upon the same principles as are shown in this paper.
 The core methods for automatic plagiarism detection, which also work in practice on extensive collections of documents,
-are based on computation document similarities. In order to compute a similarity
+are based on document similarities. In order to compute a similarity
 we need to possess the original and the plagiarized document.
 %The most straightforward method is to use an online search engine in order to enrich
 %document base with potential plagiarized documents and evaluate the amount of plagiarism by detailed document comparison. 
 %In this paper we introduce a method which has been used in PAN 2012 competition\footnote{\url{http://pan.webis.de/}}
 %in plagiarism detection.
 
-In the first section we will introduce methods for candidate document retrieval from online sources, which took part in
-PAN 2012  competition\footnote{\url{http://pan.webis.de/}} in plagiarism detection. 
-The task was to retrieve a set of candidate source documents that may had served as an original to plagiarize from.
-In the PAN 2012 candidate document retrieval test corpus, there were 32 text documents all contained at least one plagiarism case.
-The documents were approximately 30 KB of size, the smallest were 18 KB and the largest were 44 KB.
-
-In the second section we describe our approach of detailed document comparison.
+In the first section we will introduce methods, which took part in
+PAN 2012 competition\footnote{\url{http://pan.webis.de/}} in plagiarism detection, for candidate document retrieval from online sources.
+The task was to retrieve a set of candidate source documents that may had served as an original for plagiarism.
+During the competition, there were several measures of performance such as: i) Number of queries submitted, 
+ii) Number of web pages downloaded, iii) Precision and recall of web pages downloaded regarding the actual sources,
+iv) Number of queries until the first actual source is found, v) Number of downloads until the first actual source is downloaded.
+Nevertheless, the overall performance measure was not set, thus we mainly focus on minimizing the query workload.   
+%In the PAN 2012 candidate document retrieval test corpus, there were 32 text documents all contained at least one plagiarism case.
+%The documents were approximately 30 KB of size, the smallest were 18 KB and the largest were 44 KB.
+
+In the second section we describe our approach to detailed document comparison.
 We highlight the differences of this approach to the one we used for PAN 2010
 competition. We then provide the outline of the algorithm, and describe
-its steps in detail. We briefly mention the approaches we explored,
+its steps in detail. We briefly mention the approaches we have explored,
 but did not use in the final submission. Finally, we discuss the performance
 of our system (both in terms of the plagdet score, and in terms of CPU time).
 
@@ -71,9 +76,9 @@ of our system (both in terms of the plagdet score, and in terms of CPU time).
 \section{Conclusions}
 
 We present methods for candidate document retrieval which lead to
-discovery the decent amount of plagiarism with minimizing the number of used queries. 
+discovery a decent amount of plagiarism with minimizing the number of used queries. 
 The proposed methods are applicable in general to any type of text input with no apriori information about the input document.
-In PAN 2012 competition the proposed methods succeeded with similar amount of plagiarism detected with
+In PAN 2012 competition the proposed methods succeeded with competitive amount of plagiarism detected with
 only a small fraction of used queries compared to the others.  
  
 We also present a novel approach for detailed (pair-wise) document
@@ -81,7 +86,7 @@ comparison, where we allow the common features of different types
 to be evaluated together into valid intervals, even though the particular
 types of common features can vary to the great extent in their length
 and importance, and do not provide a natural ordering.
-The presented approach acchieved a second-highest plagdet score
+The presented approach achieved a second-highest plagdet score
 in the PAN 2012 competition.
 
 \bibliographystyle{splncs03}