Durante la charla explicó que el web semántico ha ido evolucionando a lo largo de los años de tal modo que en la actualidad es cada vez más fácil buscar en internet la información, esto puesto que el web semántico se basa en añadir metadatos en la world wide web (wikipedia, 2008).
La Web semántica permite a la máquina leer el lenguaje natural dijéramos, de nosotros, los humanos al escribir, y convertirlo en lenguaje ontológico, lenguaje por el que la máquina se rige. El cual tiene los siguientes componentes:
*conceptos: abstractos y concretos
*relaciones: conexión entre conceptos
*funciones: relación especial
*axiomas: proposición que se admite sin necesidad de demostración
*instancias : conceptos que cumplen con ciertas características
Los metalenguajes son los principales componentes de la Web semántica, algunos de sus estándares de representación ontológicos son:
*xml: aporta la sintaxis superficial para los documentos estructurados, pero sin dotarles de ninguna restricción sobre el significado.
*rdf: es un modelo de datos para los recursos y las relaciones que se puedan establecer entre ellos. aporta una semántica básica para este modelo de datos que puede representarse mediante xml.
*shoe o simple html ontology extension
*owl: añade más vocabulario para describir propiedades y clases: tales como relaciones entre clases (p.ej. disyunción), cardinalidad (por ejemplo "únicamente uno"), igualdad, tipologías de propiedades más complejas, caracterización de propiedades (por ejemplo simetría) o clases enumeradas (wikipedia, 2008).
Por estos metalenguajes es que nuestra maquina puede procesar la información que tecleamos y convertirla texto para que nosotros la podamos leer.
Otro de los temas de su charla fue la inteligencia artificial (maquinas) el Dr. nos comentó que gracias a la inteligencia artificial que se les dota a las máquinas es que pueden procesar toda la información y ser simplemente correctas y tender a maximizar un resultado esperado, por ejemplo las computadoras reciben entradas, salidas, procesan estas percepciones y actúan conforme a su entorno.
Por lo tanto, y de manera más específica la inteligencia artificial es la disciplina que se encarga de construir procesos que al ser ejecutados sobre una arquitectura física producen acciones o resultados que maximizan una medida de rendimiento determinada, basándose en la secuencia de entradas percibidas y en el conocimiento almacenado en tal arquitectura (Wikipedia, 2008).
Las aplicaciones que se le dan a la inteligencia artificial son: razonamiento e inferencia búsqueda y planeación aprendizaje y comprensión percepción y acción procesamiento del lenguaje natural representación de conocimiento (dijo que nosotros lo hacíamos al escribiendo, fotografiando)algunas de las maneras en como las computadoras representan el conocimiento son:
*Lenguaje natural
*Tablas
*Reglas
*Marcos
*Redes semánticas
*Ontologías
Otro de los puntos importantes que trato el Dr. fue el código fuente por ejemplo las páginas Web en el lenguaje HTML (el lenguaje de las computadoras) indican marcas de inicio y fin, además la marca beta permite a los buscadores indexar la información, el buscador Google por ejemplo utiliza algoritmos computacionales para identificar ontologías. Nos recomendó varios buscadores por ejemplo iboogie, otros sitios más personalizados como el webbrain maps. Map. Net, inteligencia artificial, swoogle (es para buscar ontologías aquí busca metadatos).
También nos mencionó las redes neuronales artificiales, estas tienen como objetivo modelar la forma en la que se piensa que trabaja el cerebro y están inspiradas en los sistemas nerviosos e intentan crear máquinas que trabajen de una manera similar al cerebro (Picton, 1944) Otro de los subtemas que también tocó fue los dispositivos basados en componentes de lógica simple introducción.
El ser humano tiene cien billones de neuronas, más que las estrellas que hay en la vía Láctea, que a través de las dendritas se comunica con el cuerpo para crear el fenómeno que conjunta pensamiento, emoción, aprendizaje, y otras funciones anatómicas (wasserman, 1989).
El dato que a mi parecer es interesante fue que dijo que comparando con las escalas modernas de cómputo digital, el cerebro es terriblemente lento y a diferencia de los humanos las computadoras no cometen errores, siempre y cuando la entrada de datos y el procesamiento sea correcta.
En general me pareció una charla muy buena, ya que cuando una persona sabe bastante acerca de lo que investiga, transmite a quiénes enseña sobre sus conocimientos, la emoción y entrega que siente por el estudio realizado. No voy a mentir, si me pareció un poco cansada ya que por los tantos conocimientos del DR. Parecía que dos horas no le alcanzaban y me imagino que no puesto que hay mucho más que aprender sobre el tema de la Web semántica.
Mas información
http:// docente.ucol.mx/-jrgp/en/research-.html
Algunos datos extras:
· Antes era Internet ahora es Web
· Hay cien billones de click diarios en el web
· Nos recomendó la web of sites ya que tiene todos los artículos que se busquen aunque en colima tiene algunos errores.
1 comentarios:
Perla, la letra es demasiado pequeña, y por la cantidad de texto conviete en cansada la lectura, además proporcionas mucha información importantes, creo que se más sintética facilita la comprensión total de lo que has escrito.
Publicar un comentario