to en inglés en un periodo de dos meses. Temas como “tiroteo en Oxford Circus”, “muere Bob Sheppard de los Yankees”, y “letras de Lennon se subastan en 1.2 millones de dólares”, entre otras, fueron identificados como contenidos de conversación más recurrentes. Posteriormente, utilizando la herramienta de crowdsourcing de Amazon, Mechanical Turk, se llevó a cabo un extenso estudio con usuarios en el cual se les preguntó por la veracidad de las aseveraciones de la muestra. Gracias a estas respuestas y a una serie de características descriptivas de los temas de conversación, extraídas automáticamente, se entrenó un clasificador automático con sistema probabilísitico. Usando Twitter Monitor, un sistema online de monitoreo que detecta la expansión de palabras claves, se tomó una muestra automática de 10 tweets por evento escri- ¿Una Twitter y las noticias: de información? fuente creíble International World Wide Web Conference, es la extensión y formalización a un análisis exploratorio anterior sobre la veracidad de la red social en tiempos de crisis que el mismo equipo realizó pocos meses antes, luego de que Twitter se transformara en el medio de comunicación más efectivo durante y después del terremoto del 27 de febrero de 2010 en nuestro país. “A partir de ese estudio que concluyó que la verdad primaba en la red, en este segundo proyecto nosotros quisimos crear una herramienta automática que analizara todos los mensajes que se van generando, no solo en eventos de crisis, y así poder dar un indicador de credibilidad. Es decir, que la misma red te ayude a filtrar las noticias que son falsas y sin fundamentos”, señala la académica del DCC. “Lo que hace esta herramienta es tratar de ver cuáles de esas características que incluimos ponderan más para luego tomar la decisión correcta sobre los datos. Por ejemplo, el tipo de usuario, la cantidad de seguidores, las palabras que usó, si tiene connotación negativa o positiva, si usó signos de exclamación, etc. Esos factores definen un mensaje. No solo tienes el texto del tweet sino también las características de su composición”, explica Poblete. Buenas perspectivas El clasificador automático dio por resultado un 92% de precisión en el 92% de las menciones de eventos de interés noticioso, mientras que en eventos creíbles, los datos fueron un 87% de precisión en el 83% de las menciones, dando buenas posibilidades de transformar este filtro en un servicio real. “Investigaciones como esta son importantes porque Twitter se ha convertido en el primer medio de información utilizado por mucha gente hoy, tanto así que en ocasiones las noticias lo citan como fuente. Por tanto, es importante saber si esa fuente es creíble. De hecho, esa fue la motivación: dar indicadores de qué cosas son verdad o no para mejorar la calidad de información que se entrega a las personas”, concluye la investigadora y académica de la FCFM. E n octubre de 2011, The Wall Street Journal hizo partícipe a Bárbara Poblete, académica del Departamento de Ciencias de la Computación (DCC) e investigadora asociada de Yahoo Latinoamérica, en uno de sus artículos sobre Twitter, una de las redes sociales con mayor crecimiento en la actualidad. Su inclusión no fue casual. El 2011, Poblete, junto con los investigadores Carlos Castillo y Marcelo Mendoza, también relacionados al buscador global, presentó su segunda investigación respecto del tema: Information Credibility on Twitter. La investigación, dada a conocer en la conferencia más importante del área, el 31