My articles and publications --(full text, click here. You may be asked to sign up --it is free) --Mis publicaciones (texto completo: http://ipn.academia.edu/AdolfoGuzman Quizá le pida suscribirse --es gratis) Mi página Web -- (click here) -- My Web page (http://alum.mit.edu/www/aguzman). ALGUNOS VIDEOS SOBRE LO QUE HAGO. Conferencia 'Ciudad inteligente, con conectividad y tecnología' (oct. 2010), parte 1 (15min), parte 2 (8min), parte 3 (9min), parte 4 (2min). Entrevista por redCudiMéxico, 2012: aquí (11 min). Avances en Inteligencia Artificial, entrevista en la Univ. IBERO, Puebla, 2013. Pulse aquí (53min). Video in the series "Personalities in the history of ESIME" (for the 100 years anniversary of ESIME-IPN, in Spanish) about Adolfo Guzman": 2014, click here. (1h)
Entrevista "La visión de los egresados del IPN, a 80 años de la creación del IPN y 100 años de la creación de la ESIME, 2014: ver en youtube (1h). Seminario sobre "Big Data" (la Ciencia de Datos). 2014. Pulse aquí (56min). Seminar on "Big Data", in English, 2014. Click here (56min). Algunos trabajos sobre Minería de Datos y sus Aplicaciones (CIC-IPN, 2016): pulse aquí (5min). El auge y el ocaso de las máquinas de Lisp (Plática en la Reunión Anual 2016 de la Academia Mexicana de Computación): pulse aquí (56min). Entrevista sobre la funcionalidad y competitividad de Hotware 10: 2016, aquí (6 min). Adolfo Guzmán Arenas, Ingeniero Electrónico e investigador del Centro de Investigación en Computación del IPN, conversó sobre su trayectoria y la importancia de las ciencias aplicadas para el desarrollo del país. 2017, Canal 11, Noticias TV (30min). Cómo se construyó la primera computadora en el mundo de procesamiento paralelo con Lisp. Marzo 2018. https://www.youtube.com/watch?v=dzyZGDhxwrU (12 min). Charla "Historias de éxito en la computación mexicana", ciclo Códice IA. Entrevista a A. Guzmán, "Entre la vida y la academia": https://bit.ly/3sIOQBc (45 min). El CIC cumple 25 años. Pulse aquí (51min. Habla Adolfo: "Pasado y futuro del CIC": minutos 13.57 a 22.70 ).
Perfil en ResearchGate -- Adolfo Guzman-Arenas My URL in Google Scholar: http://scholar.google.com/citations?user=Nw5lSdEAAAAJ My ORCID number 0000-0002-8236-0469. Scopus Author ID 6602302516.

Follow me on Academia.edu

Visualización de indicadores y tendencias delictivas a partir de informes gubernamentales. Tesis de maestría de Miguel Ángel Castillo Orta

Resumen. En esta tesis se pretende modelar uno de los principales problemas que aqueja hoy en día a nuestro país, la inseguridad y delincuencia, por tal motivo se trata el registro, procesamiento y visualización de datos relacionados con delitos.
     Hasta ahora se han desarrollado diversas propuestas para el registro y atención a delitos, apoyadas en sistemas de información geográfica, algunas en un ámbito de ciudad y otras abarcando un país. Los datos en estos sistemas se obtienen en la mayoría de los casos por las autoridades de seguridad pública, mientras que en otros, también la ciudadanía participa registrando los incidentes delictivos de los cuales haya sido víctima.
     En este trabajo se desarrolla un sistema de información geográfica que tiene como propósito proveer a la ciudadanía de información geo-referenciada de delitos que ocurren en la Ciudad de México, para que procure asistir y transitar por sitios seguros. Este recurso también puede serle de utilidad a la autoridad responsable de la seguridad pública para hacer un seguimiento de la ocurrencia de incidentes delictivos.

     Los incidentes delictivos se registran en el sistema y se almacenan en una base de datos, a partir de ésta se genera un cubo de datos, tipo estrella, con tres dimensiones: tipo de delito, ubicación y tiempo; los datos se procesan para mostrar visualmente la ocurrencia de los incidentes delictivos en ubicaciones geográficas y en intervalos de tiempo que permite a las personas que revisan la información presentada generar hipótesis de patrones delictivos en espacio o tiempo.
Miguel Castillo (al centro), con sus directores de tesis, G. Martínez y A. Guzmán.

 Viewing criminal indicators and government reports from trends.
Abstract. In this thesis the intention is to model one of the main problems today afflicts our country, insecurity and crime, Therefore it's about the recording, processing and displaying data related to crimes.
     So far there were several different proposals for the registration and attention to crimes, supported by GIS, some in an area of town and other covering a country. The data in these systems are obtained in most cases by public security authorities, while in others, citizens participate also recorded criminal incidents of which has been the victim.
     In this work it develops a geographic information system that aims to provide citizens the information geo-referenced of crimes in Mexico City to try to attend and travel on secure sites. This feature can also be helpful to the responsible public security authority to monitor the occurrence of criminal incidents.

     The criminal incidents are recorded in the system and stored in a database, from content recorded is generated a data cube, star type, with three dimensions: type of crime, location and time; the data is processed for displaying the occurrence of criminal incidents in geographical locations and time intervals that allows people who review the information submitted generate hypothesis of crime patterns in space or time.
 
Laboratorio de Ciencia de los Datos y Tecnología de Software, Centro de Investigación en Computación, Instituto Politécnico Nacional, México. 27 de julio de 2015.

Video sobre La Ciencia de los Datos. Video about Big Data. Specifically, text processing. 2014. Conference in INFOTEC, Mexico City.

Seminario "Big Data". En español. Para verlo, pulse aquí
In English. To see it, click here.

Visit of Dr. Madhukar Pitke (IEEE Life Fellow, India) to Mexico City. June 2015.


Madhukar Pitke, his wife Medha and Tlaloc, the God of rain. Antropology Museum, Mexico City, 30jun2015
                   For a few days, Dr. Pitke and his wife Medha visited us. Besides sightseeing, one of his purposes was to visit Adolfo, to strenghten ties between IEEE Mexico and IEEE India, and to see how we could make a tribute to Ing. Sergio Beltrán, pioneer of Computer Science in Mexico. Beltrán introduced the first computer to Mexico (IBM 650, Centro de Cálculo Electrónico [CCE], UNAM, 1958). He also placed Mexico in the (computer) map, inviting for talks, short courtes, and even several months stays in CCE, to renowned computer pioneers. Among them: Daniel Slotnick (U. of Illinois, creator of the ILLIAC IV supercomputer), Saul Gorn (U. of Pennsylvania), Manny Lehman (U. Hebrea de Jerusalem), Niklaus Wirth (U. of Boussard, Grenoble), Karl Zemanek (U. of Vienna) and many others. For a description of Beltran's work, click here.
     In a visit to IEEE Mexico Section, he met Ing. Ignacio Castillo (IEEE Region 9 Secretary) and Dr. Ron S. Leder (IEEE + Biotechnology). 30jun2015. See picture below.

Strenghtening the ties between IEEE India and IEEE Mexico.


Dr Pitke talks about his experience building networks
and digital systems.1jul2015. DGTIC UNAM Mexico.
Organizing a tribute to Sergio Beltran. Dr. Felipe Bracho,
Ms. Medha Pitke, Dr. Pitke. DGTIC UNAM.

Sistema para la gestión de datos y la creación de contenidos para el conocimiento de los pueblos indígenas

Computer system for data management and content creation for the knowledge of indigenous peoples from Mexico. This is the M. Sc. thesis (in Spanish) of Javier Jiménez Iglesias. To retrieve the full document, click here.
Ésta es la tesis de maestría de Javier Jiménez Iglesias. Para acceder al texto completo, pulse aquí.

Abstract. This paper shows the structure of a system that manages data uploaded and recorded by users who create content, enriched text image, audio and video record of the knowledge of indigenous peoples. Through a web application implements an interface for recording content considering the specific character of the writing of native languages and the possibility to include audio to this linguistic representation. Displays using a geographic information system linguistic diversity to locality level linking content entered by users. Additionally implements the possibility of feeding a base of words and phrases with the corresponding word or phrase in language native at Spanish based on the content recorded by the speaker in their native language.

The 2012 ACM Computing Classification System Keywords: Information systems → Information retrieval → Specialized information retrieval → Structure and multilingual text search → Multilingual and cross-lingual retrieval.


The 1998 ACM Computing Classification System Keywords: H. Information Systems, H.5 Information interfaces and presentation (I.7 Document and text processing, 1.7.1 Document and Text Editing, Languages), H.5.2 User Interfaces, Natural language.


Javier Jiménez (después de su graduación), Adolfo Guzmán (su director de tesis). CIC, IPN, México. 17 de julio de 2015
Resumen. El presente trabajo muestra la estructura de un sistema para la gestión datos obtenidos y registrados por los usuarios, la creación de contenidos de textos enriquecidos con audio imagen y video, como registro del conocimiento de los pueblos indígenas. Mediante un servicio de aplicación web, una interface para el registro de contenidos considerando los caracteres específicos de la escritura de las lenguas indígenas y la posibilidad de incluir audio a esta representación lingüística. Visualización mediante un sistema de información geográfica de la diversidad lingüística a nivel localidad, vinculando los contenidos ingresados por los usuarios. Adicionalmente implementa la posibilidad de alimentar una base de palabras y frases con su correspondiente en lengua indígena al español partiendo del contenido registrado por el hablante en su lengua materna.

Palabras clave The 2012 ACM Computing Classification System: Sistemas de información → Recuperación de la información → Recuperación de Información especializada → Estructura y búsqueda de texto multilingüe → multilingüe y recuperación en varios idiomas

Palabras Clave The 1998 ACM Computing Classification System: H. Sistemas de Información, H.5 Interfaces y presentación de la información (I.7 Procesamiento de documentos y texto, I.7.1 Edición de texto y documento, lenguajes), H.5.2 Interfaces de Usuario, Lenguaje Natural.
 

The Academy of Engineering (Mexico) nominates Adolfo Guzmán as an Académico de Honor

Since June 2015. It is the highest membership degree conferered by the Academy of Engineering. (details here). Induction ceremony: click here.
Adolfo es ahora Académico de Honor de la Academia de Ingeniería. Dentro de la Academia, Adolfo es miembro de la Comisión de Especialidad en Comunicaciones Eléctricas y Electrónica (CEICE) (detalles aquí). Ceremonia de inducción (28 de marzo de 2016): pulse aquí.

ACADÉMICOS DE HONOR DE LA ACADEMIA DE INGENIERÍA (hasta mayo 2015)

    DR. OCTAVIO A. RASCON CHAVEZ    Civil
    ING. EDUARDO CASAS DIAZ    Sin Comisión
    ING. OSCAR DE BUEN Y LOPEZ DE HEREDIA    Civil
    ING. ROGER DIAZ DE COSSIO    Civil
    ING. LUIS ESTEVA MARABOTO    Civil
    DR. OSCAR M. GONZALEZ CUEVAS    Civil
    ING. EULALIO JUAREZ BADILLO    Civil
    DR. ROBERTO MELI PIRALLA    Civil
    ING. ALFONSO OLVERA LOPEZ    Civil
    DR. DANIEL RESENDIZ NUÑEZ    Civil
    ING. ENRIQUE TAMEZ GONZALEZ    Civil
    DR. ISMAEL HERRERA REVILLA    Geofísica
    DR. JAIME CERVANTES DE GORTARI    Mecánica y Mecatrónica
    DR. RICARDO CHICUREL UZIEL    Mecánica y Mecatrónica
    ING. RAFAEL PARDO GRANDISON    Química
    DR. MARCO A. MURRAY LASSO    Sistemas Computacionales
    ING. JESUS AGUIRRE CARDENAS     Municipal y Urbanística
    ING. PABLO TAPIE GOMEZ    Eléctrica
    DR. JUAN CASILLAS GARCIA DE LEON    Civil
    DR. HECTOR O NAVA JAIMES    Comunicaciones y Electrónica
    ING. JUAN EIBENSCHUTZ HARTMAN  Nuclear
    ING. JOSE LUIS GUILLERMO GUERRERO VILLALOBOS    Civil
    DR. MARIO MOLINA PASQUEL ENRIQUEZ    Química
    ING. BRUNO DE VECCHI APPENDINI    Nuclear
    ING. SERGIO VIÑALS PADILLA    Comunicaciones y Electrónica
    ING. JOSÉ CARRILLO BRAVO    Geológica
    M.C. EUGENIO MÉNDEZ DOCURRO    Comunicaciones y Electrónica
    M.C. FAUSTO ALEJANDRO CALDERÓN GARCÍA    Geológica
    ING. AGUSTÍN STRAFFON ARTEAGA    Petrolera
    DR. FELIPE OCHOA ROSSO    Sistemas Computacionales
    DR. PABLO MARCELO MULÁS DEL POZO    Nuclear

Nota en GACETA IPN 1175 Pág. 11, 29jul2015
Noticias en la prensa nacional
La Crónica: Nombran Académico de Honor a Adolfo Guzmán. (Para leer, pulse aquí).
Educación futura: Nombra Academia de Ingeniería a Adolfo Guzmán como Académico de Honor (pulse aquí)
Notimex. Investigador del IPN es reconocido por aporte en tecnología. (pulse aquí)

Video. Entrevista por su desdignación como Académico de Honor

IPN Canal 11 TV. 29jul2015. 4min. Para ver el video, pulse aquí.

AnaPro, Tool for Identification and Resolution of Direct Anaphora in Spanish

Derivado de su tesis en la Escuela Superior de Cómputo del IPN, Israel Toledo Gómez y Erick Valtierra Romero desarrollaron AnaPro, una aplicación de software que identifica y resuelve la anáfora directa (los pronombres en tercera persona) en textos en español. Descargue aquí la publicación que sobre AnaPro apareció en el Journal of Applied Research and Technology, en 2014.

     AnaPro is software that solves direct anaphora in Spanish, specifically pronouns: it finds the noun or group of words to which the pronoun refers. It locates in the previous sentences the referent or antecedent which the pronoun replaces.
     An example of a direct anaphora solved is the pronoun “he” in the sentence “He is sad.” Much of the work on anaphora has been done for texts in English; thus, we specifically focus on Spanish documents.
     AnaPro directly supports text analysis (to understand what a document says), a non trivial task since there are different writing styles, references, idiomatic expressions, etc. The problem grows if the analyzer is a computer, because they lack “common sense” (which persons possess). Hence, before text analysis, its preprocessing is required, in order to assign tags (noun, verb,…) to each word, find the stems, disambiguate nouns, verbs, prepositions, identify colloquial expressions, identify and resolve anaphora, among other chores.
     AnaPro works for Spanish sentences. It is a novel procedure, since it is automatic (no user intervenes during the resolution) and it does not need dictionaries. It employs heuristics procedures to discover the semantics and help in the decisions; they are rather easy to implement and use limited knowledge. Nevertheless, its results are good (81% of correct answers, at least). However, more tests will give a better idea of its goodness.


Click here to dowload the paper that appeared in Journal of Applied Research and Technology.

Keywords: I.2. Artificial Intelligence, I.2.7 Natural Language processing, Text Analysis, Anaphora resolution.

     AnaPro es un software que resuelve problemas con anáforas directas en español, especialmente pronombres: la herramienta encuentra el sustantivo o grupo de palabras al cual se refiere el pronombre. Localiza en oraciones previas la referencia o antecedente y lo reemplaza por el pronombre que le corresponde. Un ejemplo de anáfora directa resuelta es el pronombre “él”, en la oración “Él está triste”.
     AnaPro apoya directamente el análisis de textos (para entender lo que el documento dice), tarea no trivial ya que existen diferentes formas y estilos de escribir, referenciar, expresiones regionales (mexicanismos, argentinismos, etc.). Todavía se complica más si el analizador es una máquina porque no tiene “sentido común” (que cualquier persona puede tener). Así, antes de analizar el texto, se requiere pre-procesarlo para asignar etiquetas (sustantivos, y verbos, entre otros) a cada palabra, encontrar las derivaciones, desambiguar sustantivos, verbos, preposiciones, identificar expresiones coloquiales, identificar y resolver anáforas, entre otras tareas.
     AnaPro trabaja con oraciones en español. Es un proceso novedoso porque es totalmente automático (no requiere la intervención de un usuario) y tampoco necesita de diccionarios. Emplea un procedimiento heurístico para descubrir la semántica y apoyarse en las decisiones que debe de tomar. Ha resultado ser bueno (con un 81-100% de aciertos); sin embargo, más ejemplos nuevos darán mejor idea de su desempeño.


Video "Avances en Inteligencia Artificial".  Entrevista a Adolfo Guzmán.  Programa Pensamiento libre SE3. Avances en Inteligencia Artificial.  (52min, 2013). Conduce: Mtro. Juan Carlos Colín Ortega, académico de tiempo del Departamento de Ciencias e Ingenierías de la IBERO Puebla). Para ver el video, pulse aquí.

Se funda la Academia Mexicana de Computación --Foundation of AmexComp (Mexican Academy of Computer Science)

Fue el 9 de enero de 2015 cuando se formalizó la creación de la Academia Mexicana de Computación. Algunos de los miembros fundadores aparecemos en la fotografía. Los fundadores: Luis Alberto Pineda Cortés, Carlos Artemio Coello Coello, Luis Enrique Succar Sucar, Jesús Favela Vara, Francisco Cantú Ortiz, Christian Lemaitre, Eduardo F. Morales Manzanares, Adolfo Guzmán Arenas, Hanna Oktaba, Raúl Monroy Borja, Jesús Savage Carmona, José Matías Alvarado Mentado, Carlos Antonio Zozaya Gorostiza, Alexander Gelbukh, Marcena Deyanira Rodríguez Urrea, Alejandro Aceves López, Manuel Montes y Gómez, Juan Manuel Ahuactzin, Francisco Cervantes Pérez, Juan Humberto Sossa Azuela.
​Sentados (de iz. a der.): Enrique Sucar, Francisco Cantú, Adolfo Guzmán, Luis Pineda, Humberto Sossa. Parados al frente (de izq. a der.): Christian Lemaitre, Manuel Montes, Hanna Oktaba, Jesús Favela, Alexander Gelbukh, Juan Manuel Ahuactzin. Parados atrás (de izq. a der.): Eduardo Morales, Jesús Savage, Francisco Cervantes, Matías Alvarado, Carlos Coello.  9 de enero de 2015.

Ingresan nuevos miembros a la ACADEMIA MEXICANA DE INFORMÁTICA

En lucida Ceremonia de Inducción, ingresaron nuevos miembros y miembros asociados a la AMIAC. Palacio de Minería (Tacuba 5, Centro Histórico, México DF), 9 de diciembre de 2014. ¡Enhorabuena!
The Academia Mexicana de Informática (Mexican Academy of Informatics) inducted new members on December 9, 2014.
Exhiben su diploma los nuevos miembros (primera fila, de  izq. a der.) xx, Francisco Javier Mendieta Jiménez, Sergio Carrera Riva Palacio, Javier Jiménez Iglesias, Oscar Mendoza Durán, Guillermo Medina flores, Julieta Palma (atrás), Claudia Marina Vicario Solórzano, Gloria Quintanilla, Carlos Gershenson, Gustavo Flores Verdugo, Israel Toledo (hasta atrás). En primera fila, extrema derecha, Enzo Molino.
 Como miembros asociados, fueron admitidos varios estudiantes de posgrado y egresados del Centro de Investigación en Computación del IPN.

De izq. a der., Oscar Mendoza Durán, Osvaldo Calvo, Israel Toledo Alvarado, Adolfo Guzmán Arenas, todos del CIC del IPN.

Por cien pesos, Guzmán entró a la computación

Al terminar su carrera en ingeniería eléctrica en la ESIME del IPN, Adolfo Guzmán Arenas ingresó al laboratorio de cibernética de la institución para hacer sus prácticas, que recientemente se había fusionado con el Centro Nacional de Cálculo. Iniciaba la segunda mitad de la década de los años sesenta.   Pulse aquí para seguir leyendo.

Visualización de respuestas a preguntas de negocios de periodos variables en tiempo y de temporadas sobre objetos de interés

Eric Ortega Villanueva enfocó su tesis de Maestría en el Centro de Investigación en Computación del IPN a la visualización de información acerca de las trayectorias académicas de los estudiantes de educación básica en la República Mexicana. Este trabajo fue dirigido por los Dres. Gilberto Martínez Luna y Jesús Olivares Ceja. 

Resumen
     Actualmente los problemas de analizar grandes volúmenes de datos se presentan de manera cotidiana, ya que la disponibilidad de terabytes en medios de almacenamiento junto con sistemas de software y comunicaciones permiten recolectar de manera continua grandes volúmenes de datos. Entre muchas fuentes de estos volúmenes, son las actividades de sistemas sociales con un gran número de participantes, administrados por software que registra y monitorea tales actividades, un ejemplo de estos son los estudios del rendimiento escolar.
     En México una actividad de este tipo son los estudios de educación básica (preescolar, primaria y secundaria), que en promedio, cada año registran a más de 30 millones de estudiantes, estos estudios se hacen de manera continua, en los doce años que dura la educación básica, registrando la inscripción y terminación de cada persona; así que por cada estudiante se almacenan al menos 24 registros, en caso de terminar con éxito su ciclo escolar.


     La mayoría de los estudiantes que terminan con la educación básica son casos de éxito, pero, aun así algunos no la terminan o se retrasan, lo cual, repercute en la economía del país (por la inversión que representan en materiales, dinero, administración y recursos asignados). Por lo anterior, es importante realizar un análisis de estos últimos, para lo cual, primero se debe hallar una manera de modelar las trayectorias de estudio para así describir y  posteriormente identificar mediante la clasificación de casos las trayectorias académicas y así ayudar a localizar las causas de las anomalías de no terminar la educación básica.
     En este trabajo con una muestra de información proporcionada por el Instituto Nacional para la Evaluación de la Educación (INEE) que abarca casi 5 años
continuos de México, que equivale a más de 200 millones de registros, se realiza la modelación de lo que son las trayectorias académicas de los estudiantes de educación básica, para lo cual se definen procesos que extraen los datos necesarios para identificar las trayectorias que el modelo distingue.  Se define una estructura en la que se almacenan datos y posteriormente se realiza una descripción de los mismos. Se determina la frecuencia de cada trayectoria y las dimensiones que permiten ubicarlo en un cuboide. Los datos organizados mediante una lattice permiten contestar preguntas de negocio cuya respuesta se visualiza usando la forma más apropiada para el tipo de información. La estructura de lattice también permite responder a consultas en diferentes niveles de abstracción o de jerarquía.

     Esta estructura de almacenamiento también tiene la característica de facilitar el análisis de la movilidad de los estudiantes, dado que se cree que sea una causa de las trayectorias de interés que no tienen éxito al  retrasar su terminación o detenerla. La estructura permite  almacenar bajo una etiquetación de los cambios en escuelas, en tipos de escuelas, municipios, estados, turnos, entre otros datos que permiten revisar su impacto en los diferentes tipos de trayectorias, que se espera sea más apreciado cuando se realiza la visualización de estas trayectorias.
     La estructura de almacenamiento permite responder a consultas en diferentes niveles de abstracción o jerarquías, para lo cual se auxilia de una estructura de lattice que permite moverse a través de las jerarquías de abstracción y mostrar agregados en diferentes niveles.

Se gradua como Maestro en Ciencias Erick Ortega Villanueva jul2014. De izq. a der., M. en C. Sandra Orantes, Dr. Gilberto Martínez (Director de tesis), M. en C. Ortega (el sustentante), Dr. Adolfo Guzmán.
 

Generación dinámica de vistas de datos en sistemas de integración de información para fuentes de datos independientes

Un sistema de integración de información crea la ilusión de que se tiene una base de datos unificada o única (que se integra a partir de varias bases de datos independientes), a la cual se le puede formular una consulta.  Para responder a esta consulta, debe reformularse: dividirse en consultas parciales que deben ser ejecutadas en las bases (reales) independientes. En su tesis de Maestría en el Centro de Investigación en Computación del Instituto Politécnico Nacional, Álvaro Salazar Urbina, dirigido por el M. en C. Alejandro Botello, da tres algoritmos para la reformulación de la consulta global. Pulse aquí para obtener la tesis (texto completo) de Álvaro.

Abstract. This work focuses on the integration of information systems, specifically in the reformulation of a query.  The reformulation of the query is a very important phase of the integration of information systems due to the fact that general queries by a user to a global interface, must be executed in different local schemas. 
     This thesis provides three algorithms for query formulation under the Local As View approach.
Click here to obtain Alvaro's thesis.

Aplicación de técnicas de optimización para la generación de planes de ejecución de consultas hacia bases de datos remotas

¿Cómo se generan los planes de ejecución de consultas hacia bases de datos remotas, donde la consulta es única y el plan la descompone en preguntas parciales hacia las bases de datos relevantes (el software debe escoger primero cuáles bases serán las relevantes, las usadas)? ¿En qué orden deben ejecutarse estas consultas parciales, o pueden ser simultáneas? En su tesis de maestría en el CIC-IPN, dirigido por el M. en C. Alejandro Botello, Rodolfo Navarro Zayas aborda y resuelve este problema. Pulse aquí para obtener la tesis de Rodolfo (texto completo). 

Resumen.
Un sistema mediador es aquel que permite llevar a cabo la integración de datos que residen en fuentes de información generalmente heterogéneas – que no son del mismo sistema y/o modelo de datos - y remotas, y para ello utiliza una representación unificada de los datos (denominada esquema mediado). Este esquema es utilizado por el usuario para formular consultas particulares al sistema mediador, sin que el usuario conozca la ubicación física de los datos, ni los esquemas de las fuentes en las que estos se encuentran alojados. Estos aspectos deben ser resueltos por el sistema mediador al tiempo de ejecutar la consulta.
En este trabajo se presenta una propuesta de solución para la generación de planes de ejecución de consultas hacia bases de datos remotas, que podrá ser incorporada por el módulo optimizador de un sistema mediador, y en donde el enfoque propuesto inicia recibiendo la consulta del usuario (que inicialmente se encuentra en términos del esquema mediado) y procede a: a) hacer la selección de fuentes relevantes (aquellas que cooperan con respuestas trascendentes), b) la descomposición de la consulta en expresiones que están en términos de los esquemas locales (denominadas consultas objetivo), así como, c) generar la definición del orden de las operaciones de reunión, buscando que este orden proporcione agilidad al procesamiento de la consulta en la integración.
Para determinar el orden de ejecución, se aplican algunas fórmulas de optimización para estimar el número de registros resultantes de las reuniones implicadas en la consulta, tomando en cuenta los valores de selectividad (número de tuplas que cumplen un predicado sobre el total de tuplas), la cardinalidad (los valores que aparecen en un atributo) y los tamaños de las tablas (número total de tuplas) involucradas; posteriormente se utilizan estos datos en un algoritmo Greedy cuya función de progreso consiste en dar una mayor prioridad a la ejecución temprana de las operaciones que generan una cantidad menor de tuplas, con el fin de evitar o postergar tanto como sea posible las operaciones que generan más tuplas y por consiguiente reducir el tiempo de respuesta del sistema para resolver la consulta del usuario.


Abstract.
A mediator system performs the integration of data which is located in remote sources, these sources usually are heterogeneous (it means that sources do not belong to the same system or that the sources use different data models to store the information). In order to handle these differences the mediator uses a unified data representation (called mediated schema), this representation is used by the user to express their queries to the system, therefore the user does not need to know the location of the data or the schemas of the sources where the data is stored, These aspects are handled by the mediator system at query execution time.
In this text is presented an approach to generate optimal query execution plans through the access to remote databases, this approach must be able to be incorporated in a query optimizer module of a mediator system. This module receives the user query (which initially is expressed in terms of the mediated schema) and then: a) perform the selection of the relevant sources (those which provide meaningful results), b) do the query decomposition of expressions in terms of local schemas (called target queries) and c) determine the execution order of joins operations, aiming to provide agility to query execution process.
To determine the execution order, some optimization formulas are performed for estimating the number of records resulting from the join operations involved in the query, considering the selectivity values (number of tuples that satisfy a condition) cardinality (the values that appear in an attribute) and the sizes of the tables (total number of tuples) involved; then these data is used for a Greedy algorithm whose progress evaluation function gives greater priority to the early execution of operations that generate fewer tuples, in order to avoid or delay as much as possible the operations that generate more tuples and thus reduce the response time of the system to resolve the user query.

Click here to obtain Rodolfo's thesis.

Efficiently Finding the Optimum Number of Clusters in a Dataset with a New Hybrid Cellular Evolutionary Algorithm

In his Ph. D. thesis, Javier Arellano develops four new ways to find better clusters in a data set. A summary of these methods is given in a Computación y Sistemas paper. Click here to obtain it in full.
     Abstract. A challenge in hybrid evolutionary algorithms is to employ efficient strategies to cover all the search space, applying local search only in actually promising search areas; on the other hand, clustering algorithms, a fundamental base for data mining procedures and learning techniques, suffer
from the lack of efficient methods for determining the optimal number of clusters to be found in an arbitrary dataset. Some existing methods use evolutionary algorithms with cluster validation index as the objective function. In this article, a new cellular evolutionary algorithm based on a hybrid model of global and local heuristic search is proposed for the same task, and extensive experimentation is done with different datasets and indexes.


Efficiently Finding the Optimum Number of Clusters in a Dataset with a New Hybrid Cellular Evolutionary Algorithm. Javier Arellano-Verdejo, Adolfo Guzmán-Arenas, Salvador Godoy-Calderon, and Ricardo Barrón Fernández.  Computación y Sistemas, Vol. 18, No. 2, 2014, pp. 317-327

Búsqueda eficiente del óptimo número de grupos en un conjunto de datos con un nuevo algoritmo evolutivo celular híbrido.

En su tesis doctoral, Javier Arellano muestra varios métodos nuevos para encontrar mejores cúmulos o agrupamientos de un conjunto de datos. Usa algoritmos evolutivos para este fin. Un artículo que los resume aparece en Computación y Sistemas. Pulse aquí para obtener el artículo completo.
     
     Resumen. Un reto actual en el área de algoritmos evolutivos híbridos es el empleo eficiente de estrategias para cubrir la totalidad del espacio de búsqueda usando búsqueda local sólo en las regiones prometedoras. Por otra parte, los algoritmos de agrupamiento, fundamentales para procesos de minería de datos y técnicas de aprendizaje, carecen de métodos eficientes para determinar el número óptimo de grupos a formar a partir de un conjunto de datos. Algunos de los métodos
existentes hacen uso de algunos algoritmos evolutivos, así como una función para validación de agrupamientos como su función objetivo. En este artículo se propone un nuevo algoritmo
evolutivo celular, para abordar dicha tarea. El algoritmo propuesto está basado en un modelo híbrido de búsqueda, tanto global como local, y tras presentarlo se prueba con una extensa experimentación sobre diferentes conjuntos de datos y diferentes funciones objetivo.


Palabras clave. Agrupamiento, algoritmo genético celular, microalgoritmos evolutvos, optimización por cúmulo de partículas, número óptimo de clases.

Vela de San Jerónimo Doctor en el Casino Militar, Chapultepec, México DF. 3 de octubre de 2014

San Jerónimo es el santo patrón de Ciudad Ixtepec, Oax. Cada año se celebra su fiesta, en un baile istmeño llamado "vela", donde las mujeres lucen sus hermosos trajes. Cambian los mayordomos, y la reina saliente pasa su trono a la reina entrante. Los istmeños que estamos lejos de nuestro terruño, también celebramos en su día. En esta ocasión, la vela "San Jerónimo Doctor" ocurrió en el Casino Militar de la cd. de México.
La calenda, con antorchas, es un recorrido festivo nocturno
Desfile de tehuanas, al principio del festejo
Desfila el estandarte de San Jerónimo, santo patrón de Cd. Ixtepec, Oax.
Cambio de mayordomos. Habla la reina saliente



































Adolfo con la reina entrante, S. M. Ma. del Carmen Muñoz Martínez

Adolfo, Adolfito. 3 de octubre de 2014

Se generaliza el baile. En esta pieza de música solo bailan mujeres

Despedida de Sergei Levachkine

Miembro del Laboratorio de Bases de Datos y Tecnología de Software, el Dr. Sergei Levachkine se retira del CIC (Centro de Investigación en Computación) del IPN,  después de una estancia fructífera de 15 años. Nos reunimos el viernes 3 de octubre de 2014 para despedirnos de él, y le deseamos una feliz y próspera carrera profesional y científica, en sus nuevos rumbos.
De izq. a der., Jesús Figueroa, Adolfo Guzmán, Sergei Levachkine, Gilberto Gutiérrez, Juan Carlos Chimal, Germán Téllez, Ricardo Barrón. 3 de octubre de 2014.
After a fruitful stay at the Laboratorio de Bases de Datos y Tecnología de Software (Data Base and Software Technology Laboratory) of Politécnico, Dr. Sergei Levachkine departs from CIC (Centro de Investigación en Computación). During his 15 years as a full Professor, he erected the Geoprocessing Laboratory to international heights, directed numerous M. Sc. and Ph. D. thesis, edited several volumes of Springer's Lecture Notes, created the Confusion Theory and, with Adriana Jiménez (his Ph. D. student, see below in this blog) created the Theory of Inconsistency. Good luck, good fortune and good health, were our common wishes for him.

Generación del cubo de datos empleando paralelismo de GPUs y CPUs multinúcleo

In his M. Sc. Thesis, Mario Torres uses a combination of GPU and CPU processors in a computer, to calculate the full data cube.The data cube consists of all the cuboids (projections or summaries of a large multivariate dataset), in a way that facilitates Data Mining. His thesis (in Spanish) is here.

Effi cient data cube computing is a core problem in data warehousing and online analitical processing fields. This is a process that may involve very large amount of tuple group summarization over big data. For a given relation R with n dimensions and a measure attribute M, R(A1; A2; :::; An; M), the basic data cube generation problem involves the aggregation of R for the construction of 2**n tuple groups on every possible combination of the n dimensions (i.e., the power set of the n dimensions of R), each of these groups is called a cuboid. This problem has been researched extensively; however, most of algorithms have been proposed without considering the advantages of the modern CPU and GPU architectures.

This work presents the design and implementation of a set of parallel operations called primitives, which take advantage of the modern GPU and multicore CPU parallelism. Primitives help to generate data cubes by using routines such as sort, partition, and aggregate. The GPU software was implemented using CUDA, a parallel computing platform introduced by the graphics processor manufacturer NVIDIA. On the other hand, multicore CPU parallelism was implemented using POSIX threads.


Subsequently, we introduce tree parallel methods for e fficient generation of full and iceberg data cubes. Besides the previously mentioned parallel primitives, these methods use POSIX threads to exploit the multicore CPU parallelism in the simultaneous construction of several cuboids. I.e., all cuboids are distributed into groups and then cuboids in each group are constructed in parallel. Linear memory storage is used to keep tuples in main memory, avoiding additional costs related to building more complex data structures. Likewise, we use some well known strategies to accelerate the data cube computing process, but unlike previous work, our methods feature fi ne grained parallelism provided by parallel primitives.


En su tesis de maestría en el Centro de Investigación en Computación del Instituto Politécnico Nacional, Mario Torres usa la Unidad Gráfica de Proceso (GPU) más la Unidad Central de Procesamiento (CPU) para calcular el cubo de datos completo (con todos sus cuboides) que se utiliza en Minería de Datos. El documento completo está aquí.

La generaci ón de cubos de datos de manera efi ciente es un problema central en los almacenes de datos y el procesamiento anal ítico en l ínea. Es un proceso que puede implicar la ejecuci ón de gran número de operaciones aritm éticas, adem ás de consumir bastante tiempo cuando se realiza a partir de datos de gran volumen. Para una relaci ón R con n atributos o dimensiones m ás un atributo de medida M, R(A1;A2; :::;An;M), el problema b ásico del c álculo del cubo de datos implica la agregaci ón de R para construir 2**n grupos de tuplas respecto a toda posible combinaci ón de las n dimensiones (i.e., el conjunto potencia de las n dimensiones de R). A cada uno de estos grupos de tuplas se le llama cuboide. Dicho problema ha sido investigado y se han propuesto estrategias para resolverlo; sin embargo, hasta ahora la mayor ía de los algoritmos no consideran las ventajas del paralelismo y las recientes arquitecturas de CPUs y GPUs.

En este trabajo se presenta el diseño de un conjunto de operaciones paralelas llamadas primitivas que aprovechan el paralelismo proporcionado por los modelos recientes de GPUs y CPUs multin úcleo. Las primitivas facilitan la generaci ón de cubos de datos llevando a cabo rutinas de ordenamiento, partici ón y agregaci ón. La implementaci ón del software para GPU de este trabajo se realiz ó mediante la plataforma de c ómputo en paralelo conocida como CUDA del fabricante de procesadores gr áficos NVIDIA y para implementar el paralelismo en procesadores multin úcleo se utilizaron hilos POSIX.
Posteriormente, se introducen tres m étodos paralelos para generaci ón de cubos de datos completos y de tipo iceberg. Adem ás de las primitivas previamente diseñadas, estos m étodos utilizan hilos POSIX con el fin de explotar el paralelismo de CPUs multin úcleo en la construcci ón simult ánea de varios cuboides. Esto es, todos los cuboides se distribuyen en grupos y posteriormente los cuboides de cada grupo se generan en paralelo. Se utiliza almacenamiento en memoria lineal a trav és de arreglos de una dimensi ón para almacenar tuplas en memoria principal, evitando costos relacionados con la construcci ón de estructuras de datos m ás complejas. As ímismo, se utilizan algunas estrategias conocidas en la literatura a fin de agilizar la generaci ón del cubo de datos. Sin embargo, a diferencia de los trabajos previos, los m étodos presentados en esta tesis son de un paralelismo de grano fino que se obtiene a trav és del uso de las primitivas paralelas.

Desarrollo de un modelo holístico y un método sistémico para representar y estimular la metacognición

In his Ph. D. thesis, Rafael Domínguez develops a holistic model and a systemic method to represent and encourage students' metacognitive activity and to get on enriching their metacognitive skills to improve performance on learning. The thesis describes the tests that are applied, and the method to estimulate students' metacognition, among other things. Full document (in Spanish) here.

Rafael Domínguez de León desarrolla en su tesis de Doctorado en la Escuela Superior de Ingeniería Mecánica y Eléctrica (ESIME) del Instituto Politécnico Nacional, un modelo holístico y un método sistémico para representar y estimular las actividades metacognitivas del estudiante, a efecto de enriquecer sus habilidades metacognitivas, y de esta manera mejorar su desempeño en el aprendizaje. La metacognición permite aprender mejor. Tesis completa (en español) aquí.

 In the educational sphere a problem to be solved is the high school dropout, high failure rates and existing lag at all educational levels. This situation affects many countries worldwide. This phenomenon occurs in both public and private educational institutions. With a high social and economic cost. For students who fail there is a marked ignorance of their cognitive, affective and metacognitive involved in meaningful learning.

This PhD project was raised as to develop a holistic model and systemic method to represent and encourage students' metacognitive activity and to get on enriching their metacognitive skills to improve performance on learning. The work seeks to extend the domain and the scope covered by metacognitive models developed to date. Through a systemic vision, principles of second-order cybernetics and self-regulated learning to achieve stimulation of the mental skills of the student. The core of the research focuses on the development of a systemic method able to enrich the individual metacognitive skills. It seeks to intervene in the individual to be more aware of their cognitive processes and is able to stimulate metacognitive activity to improve their performance in the accomplishment of learning tasks. An additional contribution is the implementation of the proposed model and method within a systemic framework. Who uses a metacognitive model of the individual to determine their strengths and weaknesses metacognitive. In which it is generated an instruction guide of customized cognitive and metacognitive strategies and a metacognitive enrichment program designed used to stimulate individual's metacognitive activity.


With the purpose to validate the model and method proposed and test the hypothesis, two experiments were conducted with college students of different careers and academic degrees from UPIICSA, IPN. An experimental group that were stimulated using the proposed framework and a control group that did not receive any stimulus. The results of processing the collected empirical information clearly shows that the experimental group improved significantly in the use of metacognitive strategies. In future lines of research is to extend the metacognitive model, the automation of the assessment of measuring instruments and the development of a virtual intelligent mediator.


KEYWORDS:Metacognition, holistic model, systemic approach,learning, metacognitive reflection, metacognitive knowledge, metacognitive regulation, second-order cybernetics.


En el ámbito educativo un problema a resolver es la gran deserción escolar, los altos índices de reprobación y el rezago existente a todos los niveles educativos. Esta es una situación que afecta a muchos países en todo el mundo. Fenómeno que se da tanto en las instituciones educativas públicas como en las privadas. Con un alto costo social y económico. En los estudiantes que fracasan se observa un marcado desconocimiento de sus procesos cognitivos, afectivos y metacognitivos implicados en el aprendizaje significativo.

En este proyecto de tesis doctoral se planteó como objetivo el desarrollar un modelo holístico y un método sistémico para representar y estimular la actividad metacognitiva de los estudiantes a efecto de enriquecer sus habilidades metacognitivas para mejorar su desempeño en el aprendizaje. El trabajo procura extender el dominio y los alcances cubiertos por los modelos metacognitivos desarrollados a la fecha. Con una visión sistémica, siguiendo los principios de la cibernética de segundo orden y el aprendizaje autorregulado, para lograr la estimulación de habilidades mentales del estudiante.


La parte fundamental de la investigación se concentra en el desarrollo de un método sistémico capaz de enriquecer las habilidades metacognitivas del individuo. Con ello se busca poder intervenir en el individuo para que tome mayor conciencia de sus procesos cognitivos y sea capaz de estimular su actividad metacognitiva para mejorar su desempeño en las tareas de aprendizaje. Una contribución adicional, es la implementación del modelo y el método propuestos dentro de un marco de trabajo sistémico. El cual utiliza un modelo metacognitivo del individuo para determinar sus fortalezas y debilidades metacognitivas. Con las que se genera una Guía de Instrucción de estrategias cognitivas y metacognitivas personalizada y un programa de enriquecimiento metacognitivo personalizado utilizado para estimular la actividad metacognitiva del individuo.


Con él propósito de validar el modelo y el método propuestos y comprobar la hipótesis, se realizaron dos experimentos con estudiantes de nivel superior, de diferentes carreras y grados escolares de la UPIICSA del IPN. Un grupo experimental al que se estimuló utilizando el marco de trabajo propuesto y un grupo de control que no recibió ningún estímulo. Los resultados obtenidos del procesamiento de la información empírica recabada demuestran claramente que el grupo experimental mejoró significativamente en el uso de estrategias metacognitivas. Dentro de las líneas futuras de investigación se encuentra el extender el modelo metacognitivo, la automatización de la evaluación de los instrumentos de medición y el desarrollo de un mediador inteligente virtual.


PALABRAS CLAVE: Metacognición, modelo holístico, método sistémico, aprendizaje autorregulado, reflexión metacognitiva, conocimiento metacognitivo, regulación metacognitiva, cibernética de segundo orden.

Visualización de objetos multivariados utilizando agrupación de variables

In his M. Sc. thesis, Rodolfo Vilchis shows how to display a 3D plot (a scatter plot) of a dataset where each item contains values for several numeric and symbolic attributes (dimensions), in order to render an easily understandable display. His full thesis (In Spanish) is here En su tesis de maestría, Rodolfo Vilchis Mompala nos muestra cómo desplegar un conjunto de datos, donde cada miembro representa un objeto que tiene muchos atributos o propiedades. Los datos tienen muchas dimensiones. Este despliegue se hace con tres ejes cartesianos; también se usa color y forma. Su tesis completa (en español) está aquí.

La visualización de la información es una técnica muy usada para analizar las relaciones entre las variables de un conjunto de datos. éstas pueden ser tanto numéricas como simbólicas y al generar una visualización la mayoría de las veces se muestran tres variables, y seis como máximo, usando color, forma y tama˜no. Después de todo, el ojo humano puede percibir con claridad datos en papel o en pantalla con dos dimensiones (ejes), máximo tres. Sin embargo, en conjuntos multivariados es común tener más de cinco dimensiones, por lo cual al visualizarlos, el usuario no detecta cómo varían las variables a través de los datos, ni las relaciones entre estas. Para resolver este problema, se suelen usar varias gráficas y tablas. Esto da una visión fragmentada de cuáles objetos tienen qué valores en cuáles atributos. El propósito de este trabajo es transmitir la mayor cantidad de información posible presente en un conjunto de datos de tal forma que sea fácilmente comprensible por el ser humano, es decir, agilizar la detección de las relaciones entre las variables numéricas y simbólicas. El trabajo presenta un nuevo método para mostrar en una sola gráfica tantas variables como sea posible, de modo que el usuario tiene una visión más integral de los datos. El sistema desarrollado, automáticamente escoge el mayor número posible de variables a mostrar (dado unos parámetros) y las agrupa para que la comprensión se efectúe sobre un mayor número de variables. Para ello, se hace uso de la regresión lineal, utilizando dos métodos, los mínimos cuadrados y Multivariate Adaptive Regression Splines (MARS). La idea es encontrar comportamientos monótonos (crecientes y decrecientes) entre las variables, para poder graficarlas en un mismo eje cartesiano, cada variable con una escala diferente. Si hay variables constantes o casi constantes (varían muy poco) estas se muestran en la visualización con una etiqueta. Aquellas variables que no poseen un comportamiento monótono con otras se tratan de ajustar mediante un particionado (reduciendo la precisión) sobre alguno de los ejes cartesianos.
Para las variables simbólicas, se busca una partición de dos o tres conjuntos de tal forma que encajen (se particionen) sobre algún eje, lo que permitirá graficarlas. Si existen variables simbólicas sobrantes, es decir, no se ajustaron mediante un particionado, se seleccionan dos de ellas y se muestran mediante el color y forma, siempre y cuando cumplan con algunas restricciones.

Con las técnicas empleadas, un conjunto de 3194 registros con 52 variables fue posible mostrarlo con nueve de sus 52 variables, otro conjunto de 4898 registros y 12 atributos se mostró con ocho de sus 12 atributos y otros conjuntos han mostrado buena visualización. En general, ambos métodos dan buenos resultados, bajo ciertas condiciones es mejor usar mínimos cuadrados y en otras MARS. Para las variables simbólicas en algunos casos se logró encontrar una partición dando buenos resultados en la visualización.


Palabras clave: Visualización de la información; mínimos cuadrados; minería de datos; Multivariate Adaptive Regression Splines.

Clasificación ACM: H. Information Systems / H.5 Information Interfaces and Presentation / H.5.2 User Interfaces.


Information visualization is a very useful technique to analyze the relationship between the variables of a data set. Each object in the data set can have numeric and symbolic attributes. When a multivariate data set is visualised only three attributes (variables) or at most six attributes are displayed using colors, shapes and sizes. This is because the human eye can only perceive with ease limited 2D or 3D data in paper or on screen. Nevertheless, for multivariate objects, it is common to have more than five variables and the significance or the relationships among the variables are lost in translation when observed separately.

The purpose of this work is to identify and present what is considered less complex relationships between some of the variables in a data set in such manner that it is easily understood by the user, and to facilitate the detection of the relationship among numeric and symbolic (qualitative) variables. This work presents a new method to display, in a single graph, as many variables as possible so that the user has a more holistic view of the data. The system developed automatically chooses the maximum number of variables to show (given some parameters) and groups the variables that behave similarly. For this, it uses linear regression, following two methods, the least squares (LS) and Multivariate Adaptive Regression Splines (MARS). The basic principle is to find monotonic behaviors (increasing and decreasing) among the variables to graph them on the same Cartesian axis, each variable with a different scale. Variables that are constant or almost constant are shown in the visualization with a label. Variables that do not have a monotonic behavior with others will be adjusted by partitioning (reducing accuracy) to any of the Cartesian axes (if possible).

Symbolic variables are searched to find an order of values which would be generated by a numeric variable that would result in a partition of the symbolic variable values on the numeric variable in order to graph it. Symbolic variables that have not an order with any numeric variable are displayed using colors and shapes, provided they comply with certain restrictions.

Tests were performed on ten data sets, one with synthetic data and the rest with real data. For a set of 3194 records (objects) with 52 variables, it was possible to display nine of its 52 variables in a single graph. For another data set of 150 objects and five attributes, it was possible to display all five attributes in a single graph. Other data sets have shown good visualization. In general, both methods give good results, under certain conditions is better to use least squares and other MARS. For symbolic variables it was possible in some cases to find a partition giving good results in the visualization.

Keywords: Information visualization; least squares; data mining; Multivariate Adaptive Regression Splines.

ACM Classification: H. Information Systems / H.5 Information Interfaces and Presentation / H.5.2 User Interfaces.

A. Guzman is now an IEEE Fellow. A partir de Enero 1, 2014, Adolfo es Fellow del IEEE

     The Institute of Electrical and Electronic Engineers (IEEE) has elevated Adolfo Guzman-Arenas to IEEE Fellow, effective January 1st, 2014.

IEEE (The Institute of Electrical and Electronic Engineers) is the world's largest professional association dedicated to advancing technological innovation and excellence for the benefit of humanity. IEEE and its members inspire a global community through IEEE's highly cited publications, conferences, technology standards, and professional and educational activities.

Mission statement.
IEEE's core purpose is to foster technological innovation and excellence for the benefit of humanity.
 

Vision statement. IEEE will be essential to the global technical community and to technical professionals everywhere, and be universally recognized for the contributions of technology and of technical professionals in improving global conditions.

IEEE has:

    more than 425,000 members in more than 160 countries, more than 50 percent of whom are from outside the United States;
    more than 116,000 Student members;
    333 Sections in 10 geographic regions worldwide;
    2,195 Chapters that unite local members with similar technical interests;
    2,354 student branches at colleges and universities;
    800 student branch chapters of IEEE technical societies;
    428 affinity groups - IEEE Affinity Groups are non-technical sub-units of one or more Sections or a Council. The Affinity Group patent entities are the IEEE-USA Consultants' Network, Graduates of the Last Decade (GOLD), Women in Engineering (WIE), and Life Members (LM).


IEEE:

    has 38 Societies and 7 technical Councils representing the wide range of IEEE technical interests;
    has more than 3 million documents in the IEEE Xplore Digital Library, with more than 8 million downloads each month;
    has more than 1,400 standards and projects under development;
    publishes more than 148 transactions, journals, and magazines;
    sponsors more than 1,300 conferences in 80 countries while:
        partnering with more than 1,000 non-IEEE entities globally;
        attracting more than 400,000 conference attendees;
        publishing more than 1,200 conference proceedings via IEEE Xplore.
         
    *Data current as of 31 December 2012. This information is updated annually.  (Taken from page www.ieee.org)


Five new IEEE Fellows for the Latin American Region (R9 of IEEE).

From: Ignacio Castillo, IEEE Mexico

To: Members of IEEE Latin America / On the behalf of Gustavo Gianattasio, IEEE R9 Director

This year as in 2002, IEEE R9 Got its higest number of Fellows - "5"
Earlier this week, the IEEE Board of Directors approved the list of 2014 IEEE Fellows.
Included in the list were
1) =>  From Mexico (page 16)
                  Adolfo Guzman, Instituto Politecnico Nacional (IPN), Mexico City, Mexico
                 for contributions to consistent labeling for 3-D object recognition
 2) =>  From Brazil (page 20)
                Cursino Jacobina, Federal University of Campina Grande/DEE, Campina Grande, Brazil
               for contributions to the development of power converters and machine drives
3) =>  From Uruguay (page 31)
               Fernando Paganini, Universidad ORT Uruguay, Montevideo, Uruguay
               For contributions to robust control and communication networks
4) => From Brazil (Page 42)
           Jacobus Swart, State University of Campinas - UNICAMP, Campinas, Brazil
           for contributions to microelectronics education in Brazil
5) =>From Brazil (Page 44)
           Germano Torres, Itajuba Federal University / PS Solutions, Itajuba, Brazil
           for contributions to the application of intelligent systems to power systems

Congratulations to its sections, countries, references & supporters


Ignacio Castillo


     El Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) ha ascendido a Adolfo Guzmán Arenas a Fellow del IEEE, por sus contribuciones al etiquetado consistente de partes de imágenes para reconocer en ellas objetos tridimensionales. 

En qué consiste el trabajo de Adolfo Guzmán que el IEEE cita cuando lo nombra Fellow del IEEE.  
 (Nota: No es un premio, es un reconocimiento. El IEEE tiene miembros estudiantes, miembros profesionales, miembros Senior y FELLOWs, que es el más alto nivel de membresía. Aproximadamente uno de cada cinco mil ingenieros (de los cuatrocientos mil que forman el IEEE) es FELLOW).
    Se analizan imágenes que contienen objetos tridimensionales, específicamente poliedros (cuerpos con caras planas). Estos poliedros tienen formas arbitrarias, y están parcialmente ocultándose unos a otros.  El problema a resolver es: ¿cuáles son los cuerpos que forman la imágen, cuántos son? Es el problema de distinguir objetos tridimensionales en una imágen que es tan solo bidimensional. Parece un  problema bastante difícil, ya que "falta una dimensión".  Curiosamente, Adolfo lo pudo resolver, con un programa de computadora que asigna etiquetas de cierta manera, y en esta forma puede identificar los cuerpos que se encuentran en la imagen.  La cita dice "por contribuciones al etiquetado consistente para reconocimiento de objetos en tres dimensiones". Es esa asignación de etiquetas lo que resolvió el problema.  Adolfo Guzmán continuó trabajando en imágenes. En 1977 recibió el Premio Banamex de Agricultura (mención honorífica), por su análisis (por computadora) de imágenes tomadas desde un satélite artificial, para detección y predicción de cosechas.

IEEE (El Instituto de Ingenieros Eléctricos y Electrónicos) es la asociación profesional más grande del mundo dedicada a avanzar la innovación tecnológica y la excelencia para el beneficio de la humanidad. El IEEE y sus miembros inspiran a una comunidad global a través de sus publicaciones enormemente citadas, conferencias, estándares tecnológicos, y actividades profesionales y educativas.
   
Misión. El objetivo central del IEEE es promover la innovación tecnológica y la excelencia, para el beneficio de la humanidad.

Visión. El IEEE será esencial a la comunidad técnica global, y a los profesionales técnicos en todo el orbe, y será universalmente reconocido por sus contribuciones tecnológicas y las de los profesionales técnicos, al mejoramiento de las condiciones globales.

El IEEE tiene:

    más de 425,000 miembros en más de 160 países, de los cuales más del 50% son de afuera de los Estados Unidos;
    más de 116,000 miembros estudiantes;
    333 Secciones en diez regiones geográficas en el mundo;
    2,195 Capítulos que unen a los miembros locales con similares intereses técnicos;
    2,354 ramas estudiantiles en las universidades e instituciones de enseñanza superior;
    800 ramas de capítulos estudiantiles de sociedades técnicas del IEEE;
    438 grupos de afinidad --Los grupos de afinidad del IEEE son sub-unidades no técnicas de una o más Secciones o un Consejo.

El IEEE:

    tiene 38 Sociedades y 7 Consejos técnicos representando la amplia gama de los intereses técnicos del IEEE;
    tiene más de 3 millones de documentos en la Biblioteca Digital IEEE Xplore, con más de 8 millones de descargas, cada mes;
    tiene más de 1,400 estándares y projectos en desarrollo;
    publica más de 148 Transacciones (revistas técnicas de área), revistas científicas y revistas de otro tipo;
    apoya a más de 1,300 conferencias en 80 países, porque
        se asocia con más de mil entidades que no son del IEEE, en el mundo;
        atrae más de 400,000 participantes en las conferencias;
        publica más de 1,200 memorias de las conferencias, vía IEEE Xplore.

   
    *Datos al 31 de diciembre de 2012. Período de actualización: anual. (Traducido de la página www.ieee.org)

El Instituto Politécnico Nacional expidió un Comunicado de Prensa, que se puede ver aquí.

En qué trabaja ahora Adolfo Guzmán.

    Él pertenece al Laboratorio de Bases de Datos y Tecnología de Software, en el Centro de Investigación en Computación del IPN (del cual fue su Director Fundador). Aquí trabaja en
La ciencia de los datos, que es el análisis de grandes cantidades de datos.
   
Enfoque: Análisis, deducciones, modelado, clasificación y otras operaciones sobre grandes conjuntos de datos, para facilitar toma de decisiones. ¿Qué nos dicen los datos, qué conclusiones o tendencias tienen, qué es posible predecir, cómo modelar el comportamiento de un fenómeno cuyos datos se tienen?  ¿Cómo transformar esta gran cantidad de datos en información y conocimiento útil para decidir, planear y mejor entendimiento de lo observado? “Cuando los datos hablan.” “Torturando los datos hasta que confiesen”.

Justificación: El abaratamiento de la capacidad de proceso, del almacenamiento y de la transmisión de la información, hace ahora posible tener una gran cantidad de datos disponibles para obtener conclusiones y derivar decisiones o acciones al estudiar “lo que nos quieren decir.” Esta especialidad está sustentada en tres pilares: Bases de datos, Probabilidad y Estadística, e Inteligencia Artificial. Nombres parecidos son Business Intelligence, Big Data, Data Analytics, On Line Analytical Processing, Data Mining, Knowledge Extraction. Global information systems. Integrating information systems. Integrated data processing. Inferences from integrated data. Integración de datos para toma de decisiones. Decision making with large datasets.
 

Dónde se aplica.
•    Con estos conocimientos, el informático sale del Centro de Procesamiento y conversa con las áreas de Planeación Estratégica (¿cómo se comporta el mercado? ¿Los clientes? ¿Los competidores?), Gerencia de Planeación (¿qué artículos se venden más, cuándo, junto con cuáles otros? ¿Qué áreas de mi negocio conviene des enfatizar? ¿cuáles son las enfermedades más prevalecientes, por región, por edad, por tipo de trabajo?), Gerencia de Ventas, y en general apoya aquéllas áreas que manejan volúmenes fuertes de datos y requieren de su análisis y entendimiento para tomar decisiones acertadas.
•    Análisis de: Información en redes de comunicación, redes sociales; tráfico vehicular, cámaras en la vía pública (imágenes anómalas); propagación de rumores, epidemias; ¿en qué parte del universo hay fenómenos violentos (por ejemplo, supernovas), dónde y cuándo? Análisis de vasto número de imágenes. • Búsqueda de desviaciones, anomalías, situaciones interesantes y tendencias en un mar de datos; • Modelado de fenómenos económicos, sociales, físicos, etc., y extracción de conclusiones.
Video sobre las aportaciones de A. Guzmán a la tecnología y ciencias de la computación
Entrevista a A. Guzmán (centenario de la ESIME; serie "Personajes en la historia de la ESIME", 2014). 1h29min. De una manera muy amena e interesante el Dr. Adolfo Guzmán Arenas, destacado egresado de la ESIME, nos platica de sus investigaciones y aportes en la tecnología y ciencias de la computación, que le han valido importantes premios y reconocimientos como el Premio Nacional de Ciencias y Artes y recientemente el de Felow de la IEEE. Para ver el video, pulse aquí