Please use this identifier to cite or link to this item: http://hdl.handle.net/2067/2614
Title: Computer che copiano: test di Turing, web corpora e filtraggio collaborativo
Authors: Roncaglia, Gino
Keywords: Turing Test;Artificial Intelligence;Intelligenza artificiale;Collaborative filtering;Filtraggio collaborativo;Turing, Alan
Issue Date: 23-Jun-2014
Abstract: 
In his famous paper on Computing Machinery and Intelligence, published in 1950, Alan Turing suggests an empirical procedure to determine a computer’s ability to exhibit a human-like intelligent behavior: the Turing test.
Traditionally, Turing test (as well as most of its many different variants) presupposes that the computer works in a fully autonomous way – the only exception being its interaction with the examiner. This means that in the test situation, the computer can only use its software and the data already included in its databases, without any external help. This is a somehow ‘natural’ and well understandable assumption at a time in which the relevance of computer networks was still to be fully understood. Deep Blue’s victory against Kasparov in the 1997 chess match offered a good example of a computer working in this way; but Deep Blue might also have been one of the last instances of this approach to artificial intelligence.
In more recent years, the development of networks has radically changed the situation. 'Intelligent' software makes an increasing use of network resources and of external data collected on the fly. From linked data to ranking algorithms, from collaborative filtering to search and recommendation tools, collecting external data concerning situations 'similar' to the one that has to be dealt with, in order to reuse them and to replicate the behaviors that proved to be most effective for other agents, is now a common and successful strategy.
Interesting examples are offered by intelligent vocal assistants such as Siri or Google Voice Search, and by tools for automatic translation based on massive translation memories on the cloud. In such cases, while interacting with the user, the software systematically relies upon the ‘help’ of relevant network resources, and works by ‘copying’ successful answers and behaviors found elsewhere, without caring too much for their origins (be they human or artificial).
This strategy seems to have achieved impressive results in just a few years. Apparently, the ability of find and reuse pertinent answers already present on the net is in many cases more effective than trying to ‘derive’ them from an abstract theoretical model (such as a computational model of the language).

Nell’articolo Computing Machinery and Intelligence – uno dei testi chiave nella storia dell’intelligenza artificiale, pubblicato su Mind nel 1950 – Alan Turing propone quello che sarebbe diventato famoso come il test di Turing: una procedura pratica per stabilire se un computer sia in grado di manifestare un’intelligenza linguistica di fatto indistinguibile da quella umana. Tradizionalmente, il test di Turing (o le sue possibili varianti) presuppone che – fatta eccezione per l’interazione con l’esaminatore – la macchina lavori in maniera autonoma. In altri termini, il computer sottoposto al test fa affidamento esclusivo sulla propria programmazione e sui dati di cui dispone, e non può ricorrere ad aiuti esterni: una situazione che ben corrisponde a una fase di sviluppo dell’informatica in cui le potenzialità rappresentate alla telematica e dalle reti non erano ancora percepite. La vittoria di Deep Blue su Kasparov, nella sfida del maggio 1997, rappresenta un buon esempio di questa concezione, e ne costituisce nel contempo un po’ il canto del cigno.
Negli ultimi anni, gli sviluppi degli strumenti di rete hanno radicalmente cambiato la situazione. Sempre più spesso, programmi e applicazioni ‘intelligenti’ sfruttano intensivamente le risorse di rete, selezionando quelle di volta in volta rilevanti sulla base di un insieme di criteri abbastanza differenziati: dagli strumenti di classificazione semantica basati su linked data, ad algoritmi di pertinenza e di filtraggio collaborativo, che utilizzano sistematicamente esperienze già acquisite ‘simili’ a quella che ci si trova ad affrontare, per replicarne le risposte di maggior successo.
Esempi interessanti sono offerti dagli “assistenti vocali intelligenti” come Siri e Google Voice Search, e dagli strumenti di traduzione automatica basati sull’uso massiccio di memorie di traduzione gestite ‘on the cloud’. In entrambi i casi, il programma interagisce con l’utente cercando sistematicamente aiuto dalla rete. E, se ne ha modo, ‘copia’ risposte di successo reperite in rete, senza preoccuparsi troppo dell’origine (umana o artificiale) della risposta che viene utilizzata.
I passi avanti fatti in pochi anni utilizzando queste strategie sono notevoli: l’impressione è che la capacità di selezionare e ‘copiare’ bene e velocemente le risposte migliori reperibili in rete rappresenti in molti casi una strategia concretamente più efficace rispetto al tentativo di costruirle sulla base di un modello astratto (ad esempio, un particolare modello di funzionamento del linguaggio).
Description: 
Preprint. The paper is to be published in the proceedings of the conference "Per il centenario di Alan Turing", Accademia dei Lincei 2013 (ed. Tito Orlandi)
URI: http://hdl.handle.net/2067/2614
Appears in Collections:DISTU - Archivio della produzione scientifica

Files in This Item:
File Description SizeFormat
Roncaglia - computer che copiano - testo per atti.pdf423.88 kBAdobe PDFView/Open
Show full item record

Page view(s)

350
Last Week
0
Last month
9
checked on Apr 24, 2024

Download(s)

337
checked on Apr 24, 2024

Google ScholarTM

Check


This item is licensed under a Creative Commons License Creative Commons