Cantitate/Preț
Produs

Multilingual and Multimodal Information Access Evaluation: International Conference of the Cross-Language Evaluation Forum, CLEF 2010, Padua, Italy, September 20-23, 2010, Proceedings: Lecture Notes in Computer Science, cartea 6360

Editat de Maristella Agosti, Nicola Ferro, Carol Peters, Maarten de Rijke, Alan Smeaton
en Limba Engleză Paperback – 13 sep 2010

Ecosistemul metodologiilor de evaluare a regăsirii informațiilor este analizat în acest volum prin prisma tehnologiilor de procesare a limbajului natural (NLP), a cadrelor de lucru pentru date masive precum MapReduce și a instrumentelor de analiză cross-lingvistică. Apreciem în mod deosebit modul în care Multilingual and Multimodal Information Access Evaluation marchează un punct de cotitură pentru inițiativa CLEF, transformând-o dintr-un workshop subordonat ECDL într-o conferință de sine stătătoare, capabilă să gestioneze complexitatea accesului la informații multimodale.

Dacă Cross-Language Information Retrieval and Evaluation de Carol Peters v-a oferit cadrul teoretic inițial al primelor campanii de evaluare, această carte oferă instrumentele practice necesare pentru a aborda provocările actuale. Subliniem prezența unor studii aplicate pe volume de date de ordinul terabiților, unde rigoarea academică întâlnește ingineria sistemelor scalabile. Volumul este structurat progresiv, începând cu prelegeri despre rolul experimentării în IR, continuând cu secțiuni dedicate resurselor și instrumentelor (cum ar fi lemmatizatoarele statistice), și culminând cu metodologii de evaluare a metricilor pentru brevete sau profilarea entităților.

Poziționăm această lucrare ca o extensie tehnică necesară în opera editorilor, în special pentru Maristella Agosti. Față de lucrările sale anterioare, precum Digital Libraries and Multimedia Archives, care se concentrau pe conservare și metadate, volumul de față prioritizează performanța sistemelor de căutare în medii multilingve. Este o resursă care documentează nu doar rezultatele, ci și infrastructura experimentală esențială pentru cercetarea în domeniul inteligenței artificiale aplicate pe text și imagine.

Citește tot Restrânge

Din seria Lecture Notes in Computer Science

Preț: 31342 lei

Preț vechi: 39177 lei
-20%

Puncte Express: 470

Carte disponibilă

Livrare economică 15-29 mai


Specificații

ISBN-13: 9783642159978
ISBN-10: 3642159974
Pagini: 158
Ilustrații: XIII, 145 p. 21 illus.
Greutate: 0.24 kg
Ediția:2010
Editura: Springer Berlin, Heidelberg
Colecția Springer
Seriile Lecture Notes in Computer Science, Information Systems and Applications, incl. Internet/Web, and HCI

Locul publicării:Berlin, Heidelberg, Germany

Public țintă

Research

De ce să citești această carte

Această carte este esențială pentru cercetătorii din domeniul regăsirii informațiilor (IR) și al procesării limbajului natural care doresc să înțeleagă protocoalele de testare riguroasă. Cititorul câștigă acces la metodologii validate pentru evaluarea sistemelor multilingve, tehnici de lemmatizare pentru limbi rare și strategii de utilizare a MapReduce în IR. Este un ghid practic despre cum se construiesc și se validează benchmark-urile în industria tehnologică actuală.


Despre autor

Maristella Agosti este profesor universitar de informatică la Universitatea din Padova, fiind o figură centrală în comunitatea europeană de cercetare a regăsirii informațiilor. Conduce grupul Information Management System (IMS) și are o expertiză vastă în baze de date, biblioteci digitale și sisteme de adnotare. Activitatea sa academică este marcată de coordonarea a numeroase proiecte internaționale, fiind unul dintre pilonii care au susținut evoluția forumului CLEF de la începuturile sale. Lucrările sale publicate la Springer reflectă o preocupare constantă pentru intersecția dintre vizualizarea informației și arhivele multimedia.


Descriere scurtă

In its ?rst ten years of activities (2000-2009), the Cross-Language Evaluation Forum (CLEF) played a leading role in stimulating investigation and research in a wide range of key areas in the information retrieval domain, such as cro- language question answering, image and geographic information retrieval, int- activeretrieval,and many more.It also promotedthe study andimplementation of appropriateevaluation methodologies for these diverse types of tasks and - dia. As a result, CLEF has been extremely successful in building a wide, strong, and multidisciplinary research community, which covers and spans the di?erent areasofexpertiseneededto dealwith thespreadofCLEFtracksandtasks.This constantly growing and almost completely voluntary community has dedicated an incredible amount of e?ort to making CLEF happen and is at the core of the CLEF achievements. CLEF 2010 represented a radical innovation of the “classic CLEF” format and an experiment aimed at understanding how “next generation” evaluation campaigns might be structured. We had to face the problem of how to innovate CLEFwhile still preservingits traditionalcorebusiness,namely the benchma- ing activities carried out in the various tracks and tasks. The consensus, after lively and community-wide discussions, was to make CLEF an independent four-day event, no longer organized in conjunction with the European Conference on Research and Advanced Technology for Digital Libraries (ECDL) where CLEF has been running as a two-and-a-half-day wo- shop. CLEF 2010 thus consisted of two main parts: a peer-reviewed conference – the ?rst two days – and a series of laboratories and workshops – the second two days.

Cuprins

Keynote Addresses.- IR between Science and Engineering, and the Role of Experimentation.- Retrieval Evaluation in Practice.- Resources, Tools, and Methods.- A Dictionary- and Corpus-Independent Statistical Lemmatizer for Information Retrieval in Low Resource Languages.- A New Approach for Cross-Language Plagiarism Analysis.- Creating a Persian-English Comparable Corpus.- Experimental Collections and Datasets (1).- Validating Query Simulators: An Experiment Using Commercial Searches and Purchases.- Using Parallel Corpora for Multilingual (Multi-document) Summarisation Evaluation.- Experimental Collections and Datasets (2).- MapReduce for Information Retrieval Evaluation: “Let’s Quickly Test This on 12 TB of Data”.- Which Log for Which Information? Gathering Multilingual Data from Different Log File Types.- Evaluation Methodologies and Metrics (1).- Examining the Robustness of Evaluation Metrics for Patent Retrieval with Incomplete Relevance Judgements.- On the Evaluation of Entity Profiles.- Evaluation Methodologies and Metrics (2).- Evaluating Information Extraction.- Tie-Breaking Bias: Effect of an Uncontrolled Parameter on Information Retrieval Evaluation.- Automated Component–Level Evaluation: Present and Future.- Panels.- The Four Ladies of Experimental Evaluation.- A PROMISE for Experimental Evaluation.