<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="es">
	<id>https://www.ecured.cu/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Moises+cedai</id>
	<title>EcuRed - Contribuciones del colaborador [es]</title>
	<link rel="self" type="application/atom+xml" href="https://www.ecured.cu/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Moises+cedai"/>
	<link rel="alternate" type="text/html" href="https://www.ecured.cu/Especial:Contribuciones/Moises_cedai"/>
	<updated>2026-05-11T16:16:02Z</updated>
	<subtitle>Contribuciones del colaborador</subtitle>
	<generator>MediaWiki 1.31.16</generator>
	<entry>
		<id>https://www.ecured.cu/index.php?title=Software&amp;diff=308057</id>
		<title>Software</title>
		<link rel="alternate" type="text/html" href="https://www.ecured.cu/index.php?title=Software&amp;diff=308057"/>
		<updated>2010-12-22T21:44:41Z</updated>

		<summary type="html">&lt;p&gt;Moises cedai: /* Clasificación del software */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Definición|Nombre=Software|imagen=|concepto=En [[Informática]], conjunto de instrucciones y datos codificados para ser leídas e interpretadas por una computadora. Estas instrucciones y datos fueron concebidos para el procesamiento electrónico de datos.}}&lt;br /&gt;
'''Software'''&amp;lt;ref&amp;gt;Diccionario de la lengua española 2005 (2010). wordreference.com (ed.): «[http://www.wordreference.com/definicion/software software]» (diccionario). Espasa-Calpe. Consultado el 1 de febrero de 2010.&amp;lt;/ref&amp;gt;. Se refiere al equipamiento lógico o soporte lógico de una [[Computadora]] digital, y comprende el conjunto de los componentes nomotéticos necesarios para hacer posible la realización de tareas específicas; en contraposición a los componentes físicos del sistema, llamados [[Hardware]]. &lt;br /&gt;
&lt;br /&gt;
Tales componentes lógicos incluyen, entre muchos otros, aplicaciones informáticas como [[procesador de textos]], que permite al usuario realizar todas las tareas concernientes a edición de textos; software de sistema, tal como un sistema operativo, que, básicamente, permite al resto de los programas funcionar adecuadamente, facilitando la interacción con los componentes físicos y el resto de las aplicaciones, también provee una interfaz para el usuario. &lt;br /&gt;
&lt;br /&gt;
== El nombre ==&lt;br /&gt;
&lt;br /&gt;
Software, es una palabra proveniente del inglés (literalmente: partes blandas o suaves), que en español no posee una traducción adecuada al contexto, por lo cual se la utiliza asiduamente sin traducir y así fue admitida por la [[Real Academia Española]] (RAE).&amp;lt;ref&amp;gt;Real Academia Española. «[http://buscon.rae.es/draeI/SrvltConsulta?TIPO_BUS=3&amp;amp;LEMA=software Significado de la palabra Software]». Diccionario de la Lengua Española, XXIIº Edición. Consultado el 14 de marzo de 2008.&amp;lt;/ref&amp;gt; Aunque no es estrictamente lo mismo, suele sustituirse por expresiones tales como ''programas (informáticos)'' o ''aplicaciones (informáticas)''.&lt;br /&gt;
&lt;br /&gt;
Software es lo que se denomina ''producto'' en [[Ingeniería de Software]]&amp;lt;ref&amp;gt;Pressman, Roger S. (2003). «El producto», Ingeniería del Software, un enfoque Práctico, Quinta edición edición.. México: Mc Graw Hill.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Definición de software ==&lt;br /&gt;
&lt;br /&gt;
Probablemente la definición más formal de software sea la siguiente: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;small&amp;gt;&amp;lt;blockquote&amp;gt;Es el conjunto de los programas de cómputo, procedimientos, reglas, documentación y datos asociados que forman parte de las operaciones de un sistema de computación.&amp;lt;br&amp;gt; &amp;lt;div align=&amp;quot;right&amp;quot;&amp;gt;Extraído del estándar 729 del IEEE6&amp;lt;ref&amp;gt; IEEE Std, IEEE Software Engineering Standard: Glossary of Software Engineering Terminology. IEEE Computer Society Press, 1993&amp;lt;/ref&amp;gt;&amp;lt;/div&amp;gt;&amp;lt;/blockquote&amp;gt;&amp;lt;/small&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
Considerando esta definición, el concepto de software va más allá de los programas de cómputo en sus distintos estados: código fuente, binario o ejecutable; también su documentación, datos a procesar e información de usuario forman parte del software: es decir, abarca todo lo intangible, todo lo &amp;quot;no físico&amp;quot; relacionado. &lt;br /&gt;
&lt;br /&gt;
El término «software» fue usado por primera vez en este sentido por [[John W. Tukey]] en [[1957]]. En las ciencias de la computación y la ingeniería de software, el software es toda la información procesada por los sistemas informáticos: programas y datos. El concepto de leer diferentes secuencias de instrucciones desde la memoria de un dispositivo para controlar los cálculos fue introducido por C[[harles Babbage]] como parte de su máquina diferencial. La teoría que forma la base de la mayor parte del software moderno fue propuesta por vez primera por [[Alan Turing]] en su ensayo de [[1936]], &amp;quot;Los números computables&amp;quot;, con una aplicación al problema de decisión.&lt;br /&gt;
&lt;br /&gt;
==Clasificación del software==&lt;br /&gt;
&lt;br /&gt;
Si bien esta distinción es, en cierto modo, arbitraria, y a veces confusa, a los fines prácticos se puede clasificar al software en tres grandes tipos:&lt;br /&gt;
&lt;br /&gt;
*'''[[Software de sistema]]''': Su objetivo es desvincular adecuadamente al usuario y al programador de los detalles de la computadora en particular que se use, aislándolo especialmente del procesamiento referido a las características internas de: memoria, discos, puertos y dispositivos de comunicaciones, impresoras, pantallas, teclados, etc. El software de sistema le procura al usuario y programador adecuadas interfaces de alto nivel, herramientas y utilidades de apoyo que permiten su mantenimiento. Incluye entre otros:&lt;br /&gt;
**[[Sistema Operativo|Sistemas operativos]]&lt;br /&gt;
**Controladores de dispositivos&lt;br /&gt;
**Herramientas de diagnóstico&lt;br /&gt;
**Herramientas de Corrección y Optimización&lt;br /&gt;
**[[Servidor Informático|Servidores]]&lt;br /&gt;
**Utilidades&lt;br /&gt;
&lt;br /&gt;
*'''[[Software de programación]]''': Es el conjunto de herramientas que permiten al programador desarrollar programas informáticos, usando diferentes alternativas y lenguajes de programación, de una manera práctica. Incluye entre otros:&lt;br /&gt;
**Editores de texto&lt;br /&gt;
**[[Compilador|Compiladores]]&lt;br /&gt;
**Intérpretes&lt;br /&gt;
**Enlazadores&lt;br /&gt;
**Depuradores&lt;br /&gt;
**Entornos de Desarrollo Integrados (IDE): Agrupan las anteriores herramientas, usualmente en un entorno visual, de forma tal que el programador no necesite introducir múltiples comandos para compilar, interpretar, depurar, etc. Habitualmente cuentan con una avanzada interfaz gráfica de usuario (GUI).&lt;br /&gt;
&lt;br /&gt;
*'''[[Software de aplicación]]''': Es aquel que permite a los usuarios llevar a cabo una o varias tareas específicas, en cualquier campo de actividad susceptible de ser automatizado o asistido, con especial énfasis en los negocios. Incluye entre otros:&lt;br /&gt;
**Aplicaciones para Control de sistemas y automatización industrial (p.ej. Los conocidos sistemas de Supervisión, Control y Adquisición de Datos, [[SCADA]])&lt;br /&gt;
**Aplicaciones ofimáticas&lt;br /&gt;
**[[Software educativo]]&lt;br /&gt;
**Software empresarial&lt;br /&gt;
**[[Bases de datos]]&lt;br /&gt;
**Telecomunicaciones (p.ej. [[Internet]] y toda su estructura lógica)&lt;br /&gt;
**[[Videojuegos]]&lt;br /&gt;
**Software médico&lt;br /&gt;
**Software de Cálculo Numérico y simbólico.&lt;br /&gt;
**Software de Diseño Asistido (CAD)&lt;br /&gt;
**Software de Control Numérico (CAM)&lt;br /&gt;
&lt;br /&gt;
== Vease también ==&lt;br /&gt;
&lt;br /&gt;
*[[Software libre]] &lt;br /&gt;
*[[Calidad_de_Software]]&lt;br /&gt;
*[[SIGNUC]] Sistema para la Gestión de la Información de Muestras de Núcleos en el CEINPET.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;small&amp;gt;&amp;lt;references /&amp;gt;&amp;lt;/small&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Fuentes ==&lt;br /&gt;
&lt;br /&gt;
*ACOBSON, Ivar; BOOCH, Grady; RUMBAUGH, James (2000). El Proceso Unificado de Desarrollo de Software (en Español). Pearson Addisson-Wesley.&lt;br /&gt;
*Pressman, Roger S. (2003). Ingeniería del Software, un enfoque Práctico, Quinta edición edición (en Español), Mc Graw Hill. ISBN 84-481-3214-9.&lt;br /&gt;
*JACOBSON; BOOCH; RUMBAUGH (1999). UML - El Lenguaje Unificado de Modelado (en Español). Pearson Addisson-Wesley. Rational Software Corporation, Addison Wesley Iberoamericana. ISBN 84-7829-028-1.&lt;br /&gt;
*Haeberer, A. M.; P. A. S. Veloso, G. Baum (1988). Formalización del proceso de desarrollo de software, Ed. preliminar edición (en Español), Buenos Aires: Kapelusz. ISBN 950-13-9880-3.&lt;br /&gt;
*Fowler, Martin; Kendall Sccott (1999). UML Gota a Gota (en Español). Addison Wesley. ISBN 9789684443648.&lt;br /&gt;
*Loucopoulos, Pericles; Karakostas, V. (1995). System Requirements Engineering (en Inglés). London: McGraw-Hill Companies, pp. 160 p.. ISBN 978-0077078430.&lt;br /&gt;
*Sommerville, Ian; P. Sawyer (1997). Requirements Engineering: A Good Practice Guide, 1ra. edition edición (en Inglés), Wiley &amp;amp; Sons, pp. 404 p.. ISBN 978-0471974444.&lt;br /&gt;
*Gottesdiener, Ellen; P. Sawyer (2002). Requirements by Collaboration: Workshops for Defining Needs (en Inglés). Addison-Wesley Professional, pp. 368 p.. ISBN 978-0201786064.&lt;br /&gt;
*Weitzenfeld - “El Proceso para Desarrollo de Software” - 2002&lt;br /&gt;
*Carlos Reynoso - “Métodos Heterodoxos en Desarrollo de Software” - 2004&lt;br /&gt;
*Grupo ISSI - Univ. Politécnica de Valencia - “Metodologías Ágiles en el Desarrollo de Software” - 2003&lt;br /&gt;
*Martin Fowler - La Nueva Metodología - 2003&lt;br /&gt;
*Cutter IT Journal – “Requirements Engineering and Management”. August 25, 2000. Cutter Consortium.&lt;br /&gt;
*“Software Requirements Engineering”, 2nd Edition, IEEE Computer Society. Los Alamitos, CA, 1997 (Compendio de papers y artículos en ingeniería de requisitos).&lt;br /&gt;
&lt;br /&gt;
[[Category:Ciencias_informáticas]][[Category:Software]]&lt;/div&gt;</summary>
		<author><name>Moises cedai</name></author>
		
	</entry>
	<entry>
		<id>https://www.ecured.cu/index.php?title=Software&amp;diff=308042</id>
		<title>Software</title>
		<link rel="alternate" type="text/html" href="https://www.ecured.cu/index.php?title=Software&amp;diff=308042"/>
		<updated>2010-12-22T21:28:01Z</updated>

		<summary type="html">&lt;p&gt;Moises cedai: /* Clasificación del software */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Definición|Nombre=Software|imagen=|concepto=En [[Informática]], conjunto de instrucciones y datos codificados para ser leídas e interpretadas por una computadora. Estas instrucciones y datos fueron concebidos para el procesamiento electrónico de datos.}}&lt;br /&gt;
'''Software'''&amp;lt;ref&amp;gt;Diccionario de la lengua española 2005 (2010). wordreference.com (ed.): «[http://www.wordreference.com/definicion/software software]» (diccionario). Espasa-Calpe. Consultado el 1 de febrero de 2010.&amp;lt;/ref&amp;gt;. Se refiere al equipamiento lógico o soporte lógico de una [[Computadora]] digital, y comprende el conjunto de los componentes nomotéticos necesarios para hacer posible la realización de tareas específicas; en contraposición a los componentes físicos del sistema, llamados [[Hardware]]. &lt;br /&gt;
&lt;br /&gt;
Tales componentes lógicos incluyen, entre muchos otros, aplicaciones informáticas como [[procesador de textos]], que permite al usuario realizar todas las tareas concernientes a edición de textos; software de sistema, tal como un sistema operativo, que, básicamente, permite al resto de los programas funcionar adecuadamente, facilitando la interacción con los componentes físicos y el resto de las aplicaciones, también provee una interfaz para el usuario. &lt;br /&gt;
&lt;br /&gt;
== El nombre ==&lt;br /&gt;
&lt;br /&gt;
Software, es una palabra proveniente del inglés (literalmente: partes blandas o suaves), que en español no posee una traducción adecuada al contexto, por lo cual se la utiliza asiduamente sin traducir y así fue admitida por la [[Real Academia Española]] (RAE).&amp;lt;ref&amp;gt;Real Academia Española. «[http://buscon.rae.es/draeI/SrvltConsulta?TIPO_BUS=3&amp;amp;LEMA=software Significado de la palabra Software]». Diccionario de la Lengua Española, XXIIº Edición. Consultado el 14 de marzo de 2008.&amp;lt;/ref&amp;gt; Aunque no es estrictamente lo mismo, suele sustituirse por expresiones tales como ''programas (informáticos)'' o ''aplicaciones (informáticas)''.&lt;br /&gt;
&lt;br /&gt;
Software es lo que se denomina ''producto'' en [[Ingeniería de Software]]&amp;lt;ref&amp;gt;Pressman, Roger S. (2003). «El producto», Ingeniería del Software, un enfoque Práctico, Quinta edición edición.. México: Mc Graw Hill.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Definición de software ==&lt;br /&gt;
&lt;br /&gt;
Probablemente la definición más formal de software sea la siguiente: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;small&amp;gt;&amp;lt;blockquote&amp;gt;Es el conjunto de los programas de cómputo, procedimientos, reglas, documentación y datos asociados que forman parte de las operaciones de un sistema de computación.&amp;lt;br&amp;gt; &amp;lt;div align=&amp;quot;right&amp;quot;&amp;gt;Extraído del estándar 729 del IEEE6&amp;lt;ref&amp;gt; IEEE Std, IEEE Software Engineering Standard: Glossary of Software Engineering Terminology. IEEE Computer Society Press, 1993&amp;lt;/ref&amp;gt;&amp;lt;/div&amp;gt;&amp;lt;/blockquote&amp;gt;&amp;lt;/small&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
Considerando esta definición, el concepto de software va más allá de los programas de cómputo en sus distintos estados: código fuente, binario o ejecutable; también su documentación, datos a procesar e información de usuario forman parte del software: es decir, abarca todo lo intangible, todo lo &amp;quot;no físico&amp;quot; relacionado. &lt;br /&gt;
&lt;br /&gt;
El término «software» fue usado por primera vez en este sentido por [[John W. Tukey]] en [[1957]]. En las ciencias de la computación y la ingeniería de software, el software es toda la información procesada por los sistemas informáticos: programas y datos. El concepto de leer diferentes secuencias de instrucciones desde la memoria de un dispositivo para controlar los cálculos fue introducido por C[[harles Babbage]] como parte de su máquina diferencial. La teoría que forma la base de la mayor parte del software moderno fue propuesta por vez primera por [[Alan Turing]] en su ensayo de [[1936]], &amp;quot;Los números computables&amp;quot;, con una aplicación al problema de decisión.&lt;br /&gt;
&lt;br /&gt;
==Clasificación del software==&lt;br /&gt;
&lt;br /&gt;
Si bien esta distinción es, en cierto modo, arbitraria, y a veces confusa, a los fines prácticos se puede clasificar al software en tres grandes tipos:&lt;br /&gt;
&lt;br /&gt;
*'''[[Software de sistema]]''': Su objetivo es desvincular adecuadamente al usuario y al programador de los detalles de la computadora en particular que se use, aislándolo especialmente del procesamiento referido a las características internas de: memoria, discos, puertos y dispositivos de comunicaciones, impresoras, pantallas, teclados, etc. El software de sistema le procura al usuario y programador adecuadas interfaces de alto nivel, herramientas y utilidades de apoyo que permiten su mantenimiento. Incluye entre otros:&lt;br /&gt;
**[[Sistema Operativo|Sistemas operativos]]&lt;br /&gt;
**Controladores de dispositivos&lt;br /&gt;
**Herramientas de diagnóstico&lt;br /&gt;
**Herramientas de Corrección y Optimización&lt;br /&gt;
**[[Servidor Informático|Servidores]]&lt;br /&gt;
**Utilidades&lt;br /&gt;
&lt;br /&gt;
*'''[[Software de programación]]''': Es el conjunto de herramientas que permiten al programador desarrollar programas informáticos, usando diferentes alternativas y lenguajes de programación, de una manera práctica. Incluye entre otros:&lt;br /&gt;
**Editores de texto&lt;br /&gt;
**[[Compilador|Compiladores]]&lt;br /&gt;
**Intérpretes&lt;br /&gt;
**Enlazadores&lt;br /&gt;
**Depuradores&lt;br /&gt;
**Entornos de Desarrollo Integrados (IDE): Agrupan las anteriores herramientas, usualmente en un entorno visual, de forma tal que el programador no necesite introducir múltiples comandos para compilar, interpretar, depurar, etc. Habitualmente cuentan con una avanzada interfaz gráfica de usuario (GUI).&lt;br /&gt;
&lt;br /&gt;
*'''[[Software de aplicación]]''': Es aquel que permite a los usuarios llevar a cabo una o varias tareas específicas, en cualquier campo de actividad susceptible de ser automatizado o asistido, con especial énfasis en los negocios. Incluye entre otros:&lt;br /&gt;
**Aplicaciones para Control de sistemas y automatización industrial (p.ej. Los conocidos sistema de Supervisión, Control y Adquisición de Datos, SCADA)&lt;br /&gt;
**Aplicaciones ofimáticas&lt;br /&gt;
**[[Software educativo]]&lt;br /&gt;
**Software empresarial&lt;br /&gt;
**[[Bases de datos]]&lt;br /&gt;
**Telecomunicaciones (p.ej. [[Internet]] y toda su estructura lógica)&lt;br /&gt;
**[[Videojuegos]]&lt;br /&gt;
**Software médico&lt;br /&gt;
**Software de Cálculo Numérico y simbólico.&lt;br /&gt;
**Software de Diseño Asistido (CAD)&lt;br /&gt;
**Software de Control Numérico (CAM)&lt;br /&gt;
&lt;br /&gt;
== Vease también ==&lt;br /&gt;
&lt;br /&gt;
*[[Software libre]] &lt;br /&gt;
*[[Calidad_de_Software]]&lt;br /&gt;
*[[SIGNUC]] Sistema para la Gestión de la Información de Muestras de Núcleos en el CEINPET.&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;small&amp;gt;&amp;lt;references /&amp;gt;&amp;lt;/small&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Fuentes ==&lt;br /&gt;
&lt;br /&gt;
*ACOBSON, Ivar; BOOCH, Grady; RUMBAUGH, James (2000). El Proceso Unificado de Desarrollo de Software (en Español). Pearson Addisson-Wesley.&lt;br /&gt;
*Pressman, Roger S. (2003). Ingeniería del Software, un enfoque Práctico, Quinta edición edición (en Español), Mc Graw Hill. ISBN 84-481-3214-9.&lt;br /&gt;
*JACOBSON; BOOCH; RUMBAUGH (1999). UML - El Lenguaje Unificado de Modelado (en Español). Pearson Addisson-Wesley. Rational Software Corporation, Addison Wesley Iberoamericana. ISBN 84-7829-028-1.&lt;br /&gt;
*Haeberer, A. M.; P. A. S. Veloso, G. Baum (1988). Formalización del proceso de desarrollo de software, Ed. preliminar edición (en Español), Buenos Aires: Kapelusz. ISBN 950-13-9880-3.&lt;br /&gt;
*Fowler, Martin; Kendall Sccott (1999). UML Gota a Gota (en Español). Addison Wesley. ISBN 9789684443648.&lt;br /&gt;
*Loucopoulos, Pericles; Karakostas, V. (1995). System Requirements Engineering (en Inglés). London: McGraw-Hill Companies, pp. 160 p.. ISBN 978-0077078430.&lt;br /&gt;
*Sommerville, Ian; P. Sawyer (1997). Requirements Engineering: A Good Practice Guide, 1ra. edition edición (en Inglés), Wiley &amp;amp; Sons, pp. 404 p.. ISBN 978-0471974444.&lt;br /&gt;
*Gottesdiener, Ellen; P. Sawyer (2002). Requirements by Collaboration: Workshops for Defining Needs (en Inglés). Addison-Wesley Professional, pp. 368 p.. ISBN 978-0201786064.&lt;br /&gt;
*Weitzenfeld - “El Proceso para Desarrollo de Software” - 2002&lt;br /&gt;
*Carlos Reynoso - “Métodos Heterodoxos en Desarrollo de Software” - 2004&lt;br /&gt;
*Grupo ISSI - Univ. Politécnica de Valencia - “Metodologías Ágiles en el Desarrollo de Software” - 2003&lt;br /&gt;
*Martin Fowler - La Nueva Metodología - 2003&lt;br /&gt;
*Cutter IT Journal – “Requirements Engineering and Management”. August 25, 2000. Cutter Consortium.&lt;br /&gt;
*“Software Requirements Engineering”, 2nd Edition, IEEE Computer Society. Los Alamitos, CA, 1997 (Compendio de papers y artículos en ingeniería de requisitos).&lt;br /&gt;
&lt;br /&gt;
[[Category:Ciencias_informáticas]][[Category:Software]]&lt;/div&gt;</summary>
		<author><name>Moises cedai</name></author>
		
	</entry>
	<entry>
		<id>https://www.ecured.cu/index.php?title=Usuario:Moises_cedai&amp;diff=91045</id>
		<title>Usuario:Moises cedai</title>
		<link rel="alternate" type="text/html" href="https://www.ecured.cu/index.php?title=Usuario:Moises_cedai&amp;diff=91045"/>
		<updated>2010-06-25T21:03:08Z</updated>

		<summary type="html">&lt;p&gt;Moises cedai: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''Moisés Herrera Vázquez'''&lt;br /&gt;
&lt;br /&gt;
Especialista en Automática&lt;br /&gt;
&lt;br /&gt;
Departamento de Investigación y Desarrollo&lt;br /&gt;
&lt;br /&gt;
Empresa de Automatización Integral, CEDAI&lt;br /&gt;
&lt;br /&gt;
Ministerio de Informática y las Comunicaciones&lt;br /&gt;
&lt;br /&gt;
Cuba&lt;br /&gt;
&lt;br /&gt;
Graduado, en el año 1998, de Ingeniería en Automática en la [http://www.uclv.edu.cu Universidad Central &amp;quot;Marta Abreu&amp;quot; de las Villas, UCLV.]&lt;br /&gt;
&lt;br /&gt;
Graduado de la Maestría en Automática, mención en Robótica y Control Inteligente en el año 2003, en la misma institución.&lt;/div&gt;</summary>
		<author><name>Moises cedai</name></author>
		
	</entry>
	<entry>
		<id>https://www.ecured.cu/index.php?title=Visi%C3%B3n_Artificial&amp;diff=28502</id>
		<title>Visión Artificial</title>
		<link rel="alternate" type="text/html" href="https://www.ecured.cu/index.php?title=Visi%C3%B3n_Artificial&amp;diff=28502"/>
		<updated>2010-03-09T19:30:48Z</updated>

		<summary type="html">&lt;p&gt;Moises cedai: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Desarrollo}} &lt;br /&gt;
&lt;br /&gt;
'''Visión Artificial''' &lt;br /&gt;
&lt;br /&gt;
También conocida como ''Visión por Computadora.'' &lt;br /&gt;
&lt;br /&gt;
Se considera como el conjunto de todas aquellas técnicas y modelos que nos permitan la adquisición, procesamiento, análisis y explicación de cualquier tipo de información espacial del mundo real obtenida a través de imágenes digitales. &lt;br /&gt;
&lt;br /&gt;
== Otras Definiciones  ==&lt;br /&gt;
&lt;br /&gt;
''Visión Artificial es la ciencia que estudia, utilizando computadoras digitales, los procesos de obtención, caracterización, interpretación de la información procedentes de imágenes tomadas de un mundo tridimensional.'' &lt;br /&gt;
&lt;br /&gt;
''La Visión es un proceso de tratamiento de información que permite obtener una descripción simbólica del mundo real a partir de imágenes.'' &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Antecedentes  ==&lt;br /&gt;
&lt;br /&gt;
Dentro de los hitos más relevantes, en el modelado de la percepción visual, podemos mencionar los estudios de Kepler sobre el análisis geométrico de la formación de la imagen en el ojo, las apreciaciones de Newton sobre visión en color, Helmhotz (1910) sobre óptica fisiológica y Wertheimer (1912) sobre el movimiento aparente de agrupaciones de puntos o campos. Estos trabajos, unidos a otros, han establecido las bases de las actuales teorías de percepción visual. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Muchos concuerdan en que el primer gran paso se logró a principio del siglo XX con la aparición de la escuela de psicología de la Gelstat basada, principalmente, en los trabajos de Wertheimer. Esta escuela tuvo, dentro de sus resultados más relevantes, el establecer criterios que planteaban que características como la similaridad, homogeneidad, cercanía, etc, eran suficientes para tratar de explicar las propiedades de los mecanismos psicofísicos de la visión humana. Pero, esta aproximación con criterios tan globales se perdió años más tarde al no poder dar respuesta a nuevos interrogantes dentro del proceso de percepción visual&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Alrededor de los años 50, la investigación se orientó en la búsqueda de explicaciones al más bajo nivel celular, lo que originó una nueva corriente de ideas y teorías que con base en las potencialidades de las neuronas como células individuales. Se intentó explicar los mecanismos y propiedades de la visión humana, Hubel y Weisel (1962, 1968) y Barlow (1972). Sin embargo, esta aproximación tampoco pudo dar respuesta a los problemas más profundos de como nuestro mecanismo visual codifica, representa y reconoce distintos tipos de informaciones espaciales.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dada la enorme complejidad mostrada por el sistema de visión humana y como consecuencia del lento avance de las teorías y algoritmos que explicaban su funcionamiento y propiedades se intentó abordar estos problemas de formas más directas a partir de tres enfoques distintos. El primero se basó en el desarrollo de técnicas empíricas basadas en criterios de tipo matemático que aproximaban estos problemas de estimación de bordes y líneas usando distintos criterios. Dentro de este Grupo se encontraba Azriel Rosenfeld. Estas aproximaciones crearon algunas ideas interesantes como el uso simultáneo de operadores de distinto tamaño, pero tuvo el gran inconveniente de no poder proponer métodos para la evaluación de los distintos algoritmos.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
El segundo enfoque se basó en profundizar en el problema reduciendo su alcance a un mundo de bloques blancos iluminados sobre fondo negro. Los bloques podían tener cualquier forma, siempre que todas sus superficies fueran planas y todos sus bordes rectos. Este modelo funcionó perfectamente en ciertos trabajos como los realizados por Waltz (1975) y Mackworth (1973); ellos resolvieron interpretaciones de dibujos lineales a partir de estudios de imágenes de prismas sólidos. De hecho, la simplificación impuesta en este modelo se había hecho con el razonamiento de que presentado un conocimiento profundo del problema en un mundo simplificado permitiría más tarde extrapolar dichos conocimientos a mundos más complejos.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
En años más recientes se enfrascaron en idear un modelo más completo de la percepción visual que eliminara las limitaciones de los anteriores, esta especialización trajo consigo el tercer enfoque. Dentro de los trabajos más relevantes podemos mencionar los realizados por Horn (1975, 1977) sobre la formación de la imagen. En ellos Horn establece modelos de cálculo que expresan la formación de la imagen a través de ecuaciones diferenciales que relacionan los valores de intensidad de la imagen con la geometría de la superficie tras estudiar con gran detalle el modo en que la iluminación, la geometría, la reflectancia de la superficie y el punto de vista del observador actuaban de forma conjunta para crear los valores de intensidad medidos en la imagen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Fue entonces cuando diversos investigadores, dentro de los cuales se destacó Julesz (1975), demostraron que los mecanismos de la visión estereoscópica son realizados en la retina en una etapa muy previa del proceso de visión, y que el mecanismo de visión humana tiene la posibilidad de interpretar imágenes en 3D usando solamente las informaciones sobre profundidad, distancia y textura.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Estos estudios lograron establecer las denominadas teorías de tipo modular, las cuales representaban el proceso de visión como la sucesión de transformaciones que a partir de la escena del mundo externo, produce una descripción útil al observador sin estar entorpecida por la información irrelevante. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La mayoría de los estudiosos del tema concuerdan en que a las técnicas asociadas al estudio de los sistemas de visión artificial debe considerarse como parte de la Inteligencia Artificial por cuanto modelan actividades del cerebro humano.&amp;lt;br&amp;gt;En los últimos años se han realizado un sin número de trabajos en el campo de la visión artificial. Institutos como el MIT (Massachusetts Institute of Technology), llevaron la delantera durante los años 70 y marcaron pautas en los estudios en estos temas. Uno de los investigadores más relevantes de este instituto resultó ser David Marr, el cual estableció una metodología modular tipo “Botton/Up”. Para lograr realizar el procesamiento de una imagen percibida, Marr planteó tres grandes bloques para el procesamiento de la información. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
#Cálculo del esbozo primitivo como estructura informacional que caracteriza los distintos rasgos básicos (bordes, líneas, arcos, ceros, manchas, etc) presentes en la imagen de intensidades (nivel 2D). &lt;br /&gt;
#Construcción de las superficies presentes en la imagen desde el punto de vista del observador, a partir de la informaciones suministradas por el esbozo primitivo y las informaciones tridimensionales proporcionadas por las estereoscopía, sombreado, reflectancia, iluminación, etc. &lt;br /&gt;
#Construcción del modelo que representa a los objetos en el espacio y permite catalogarlos y compararlos con información previamente almacenada (nivel 3D).&lt;br /&gt;
&lt;br /&gt;
Marr forjó las bases en el campo del estudio de los mecanismos de la visión humana y el análisis de imágenes digitales, sus principales hitos se basaron en realizar métodos para la descomposición de la información en niveles 2D, 3D y sus esquemas de representación de la información en cada uno de estos niveles.&amp;lt;br&amp;gt;Otros estudiosos se dedicaron a profundizar en estos estudios dentro de los que podemos mencionar a Nishihara el cual planteó en 1978 que la información acerca de la geometría y la reflectancia de las superficies visibles se codifica en la imagen de varias formas y puede ser decodificada por procesos casi independientes.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La comprensión de esta frase fue el comienzo que dio lugar a la aparición de múltiples teorías sobre los procesos de decodificación. Muchos de estos procesos de decodificación permanecen hoy en día como áreas activas de investigación. De entre los más importantes podemos citar: la estereoscopía, la derivación de la estructura a partir del movimiento aparente, la selectividad de dirección, el cálculo de la profundidad a partir del flujo óptico, el cálculo de la orientación de la superficie a partir de su textura, el cálculo de la forma a partir de la sombra, la estereoscopía fotométrica, etc. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Con la llegada de las primeras computadoras digitales en los años 50-60, se comienza a necesitar de disponer de técnicas para la transmisión y procesamiento de imágenes desde satélite, uno de los empujes dados a estas técnicas de trasmisión, realce y restauración de imágenes fueron realizados por el Jet Propulsion Laboratory (EEUU), encargado del procesamiento de las imágenes mandadas por los primeros satélites y por el National Institute of Health (EEUU) dedicado al estudio de imágenes de rayos X, microscopía óptica y electrónica. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
No cabe la menor duda que el MIT junto con la Universidad de Stanford se perfilan como los centros más sobresalientes en los estudios de visión artificial, dentro de sus trabajos más relevantes se pueden mencionar la visión aplicada a robótica bajo el proyecto Hand-Eye y el llamado proyecto UIS (Image Understanding System), este último proyecto marca el comienzo del uso de estas técnicas en aplicaciones de tipo militar. Por otra parte países como Japón desarrollaron el llamado proyecto PIPS (Pattern-Information Processing System), el cual impulsó el desarrollo del análisis de imágenes.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Los estudios realizados por los países de Europa no se quedaron detrás cabe destacar la investigación desarrollada, durante los años setenta, por los profesores G. Matheron y J. Serra de la École National Supérieure des Mines de Paris (Francia) el cual ofreció aportes a la geometría integral y el cálculo de probabilidades para la caracterización y medición de formas, esta metodología se denomina Morfología Matemática y ha tenido sus principales áreas de aplicación en los campos de la geología, la biología y la medicina. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
A partir de este momento se observar el comienzo de cierta especialización en las técnicas existentes. Así, comienzan a aparecer los conceptos de técnicas para el procesamiento de imágenes digitales como el conjunto de todas aquellas técnicas asociadas a la captura, codificación y representación de las imágenes que no introducen sobre las mismas ningún tipo de interpretación, y técnicas para el análisis de imágenes digitales, técnicas de visión por computadora o visión mediante robot como acepciones que se refieren a aquellas técnicas que tratan de extraer la información presente en la imagen con el fin de hacer una interpretación de las escena representada por dicha imagen. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sistema de Visión Humano  ==&lt;br /&gt;
&lt;br /&gt;
¿Porqué no realizar un modelado perfecto del sistema de visión humano e implementarlo en una computadora?&amp;lt;br&amp;gt;La respuesta no es sencilla, gran cantidad de estudios demuestran claramente que nuestro sistema visual lejos de ser perfecto contiene una serie de irregularidades que no deben ser modeladas para lograr un sistema artificial que supere al humano. No existe ninguna razón para modelar los errores de nuestro sistema.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Para realizar un bosquejo de la argumentación anterior realizaremos un estudio de nuestro sistema de visión y observaremos los puntos débiles y sus fortalezas.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Todo sistema de visión está compuesto por tres partes fundamentales: &lt;br /&gt;
&lt;br /&gt;
#Las señales que percibimos.&amp;amp;nbsp; &lt;br /&gt;
#El medio en que se transmiten. &lt;br /&gt;
#Los mecanismos de decodificación del sistema receptor y/o cerebro.&lt;br /&gt;
&lt;br /&gt;
Una imagen puede describirse como un mapa espacial que sobre una determinada información que nos ofrece algún tipo de sensor. Ejemplos de este tipo de mapas son nuestras percepciones de una determinada situación o escena a partir de nuestros sistemas sensoriales (vista, oído, tacto, gusto, y olfato). Para centrar aun más nuestro estudio nos preguntaremos sobre el significado real de lo que significa ver o adquirir información a través de un sistema sensorial de tipo visual. Si nos centramos en el modelo visual humano asociaremos el concepto de ver con el de percibir una señal luminosa con una intensidad mínima y en un rango de frecuencia espectral dado. Sin embargo hoy en día son bien conocidas las posibilidades de obtener imágenes a partir de sensores que trabajen en condiciones muy distintas de iluminación a las que es sensible el ojo humano, por ejemplo, el espectro infrarrojo, rayos X, etc. Así pues, la posibilidad de formar imágenes debemos asociarla al tipo de sensor usado y a las posibilidades de que dicho sensor sea capaz de captar y decodificar la información que le llega. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Una vez que tenemos conocimiento de la composición de la señal a analizar podemos pasar al estudio del sensor que debe captar la información. En el caso de nuestro sistema de visión, el ojo se perfila como nuestro sensor del espectro visible.&amp;amp;nbsp;El ojo es casi una esfera de unos 20mm de diámetro, formada por un conjunto de membranas denominadas cornea, esclera, coroide y retina. La cornea y la esclera, constituyen las envolturas externas anterior y posterior del ojo respectivamente. La capa coroidal además de alimentar el ojo a través de sus vasos sanguíneos, tiene la misión de absolver las luces extrañas que entran el ojo así como de amortiguar el efecto de dispersión de la luz dentro del globo ocular. El iris o diafragma esta situado en la parte anterior del coroide, y tiene como misión controlar la cantidad de luz que entra en el ojo. Para ello, la pupila o parte central del iris puede cambiar de tamaño en función de la luminosidad incidente desde 2mm a 8mm de diámetro. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Image:Ojo.JPG|frame|right|377x277px|Esquema descriptor del ojo humano]]&amp;amp;nbsp; &lt;br /&gt;
&lt;br /&gt;
La lente del ojo esta formada por capas concéntricas de células fibrosas y esta sujeta al coroide a través de fibras, esta compuesta principalmente por agua (60%-70%), grasa 6% y proteínas. En la lente se absorbe cerca del 8% del espectro de luz visible así como una gran proporción de luz infrarroja y ultravioleta. &amp;lt;br&amp;gt;La membrana más interna del ojo es la retina que cubre toda la pared interna del ojo. Cuando la luz llega al ojo la imagen que transporta se forma en la retina por la sensibilización de dos clases de receptores: los bastones y los conos. &amp;lt;br&amp;gt;El número de conos existentes en un ojo esta entre 6-7 millones y su situación dentro del ojo se concentra alrededor de un punto llamado fóvea. &lt;br /&gt;
&lt;br /&gt;
La misión de los conos dentro del ojo es doble. Por un lado son responsables de la detección del color y por otro ayudan a resolver los detalles finos de la imagen. &amp;lt;br&amp;gt;Cuando una persona quiere resolver detalles finos en una imagen intenta que esta se forme en su retina alrededor de la fóvea, consiguiendo por tanto, que los conos sean mayoritariamente los receptores de la luz. La visión a través de los conos se denomina visión fotocópica o de luz brillante. &amp;lt;br&amp;gt;Por otro lado, el número de bastones existentes en un ojo es muy superior al de conos y esta entre 75-150 millones. Los bastones se distribuyen sobre toda la retina y al igual que los conos tienen una doble misión. Por un lado son responsables de dar una impresión general del campo de visión y por otro son responsables de la sensibilidad a niveles bajos de iluminación. Los bastones no son sensibles al color. &lt;br /&gt;
&lt;br /&gt;
Un objeto que a la luz del día tiene colores vivos, observado a la luz de la luna aparece sin colores, esto es debido a que tan solo los bastones están estimulados. A la visión a través de bastones se le denomina visión escotópica o de luz tenue.&amp;lt;br&amp;gt;El ojo humano es capaz de adaptarse en un rango de valores de iluminación de aproximadamente&amp;amp;nbsp;10 órdenes de magnitud. El punto más importante a la hora de interpretar este enorme rango es el hecho de que el ojo no opera de forma simultánea sobre todo el rango si no que en cada caso y en función de la luminosidad medía existente se hace sensible a un rango alrededor de dicho valor medio. Este efecto de adaptación se denomina adaptación al brillo. Numerosos experimentos han mostrado que el brillo subjetivo percibido es una función logarítmica de la intensidad de luz incidente en el ojo. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
El sistema de visión humano como otras partes de la anatomía del cuerpo humano es fruto de la evolución. Como consecuencia de esto el sistema de visión humano responde a unos patrones mejor que otros, por otro lado puede llegar a conclusiones erradas al interpretar situaciones ambiguas por la existencia de ilusiones visuales, ambigüedades e inconsistencias.Las ambigüedades son muy frecuentes y se basan en que una figura puede tener más de una posible interpretación. Múltiples interpretaciones pueden coexistir o una puede dominar. &amp;lt;br&amp;gt;Los investigadores han demostrado que inferimos de nuestras imágenes en la retina más de lo que de verdad está soportado por la geometría y física de la formación de imágenes. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Helmhotz en su libro Handbook of Physiological Optics publicado a mediados del siglo pasado expresó que cada imagen es una imagen de algo sólo para aquel que conoce como leerla, y que está capacitado con la ayuda de la imagen a formar una idea de la cosa. &amp;lt;br&amp;gt;Esta afirmación nos muestra que el sistema visual humano no realiza inferencias precisas y exactas basadas en la física de la formación de imágenes en el ojo, sino que el sistema visual invoca reglas que se obtienen y están dirigidas por la experiencia previa del individuo y tal vez por la especie. &amp;lt;br&amp;gt;Como se pudo apreciar nuestro sistema de visión ha evolucionado y presenta sistemas de adaptación increíbles a los cambios de iluminación entre otras de sus fortalezas, sin embargo también presenta debilidades que no deben ser tomadas en cuenta a la hora de realizar un sistema que lo simule.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sistema de Visión Artificial [[Image:SistemaVisionArtificial.jpg|frame|right|393x237px|Componentes de un Sistema de Visión Artificial]]  ==&lt;br /&gt;
&lt;br /&gt;
La necesidad de ver artificialmente evoluciona a medida que el ser humano es capaz de estudiar su propio cuerpo y demostrar que cerca del 60% de la corteza cerebral del hombre se dedica a procesar la información visual.&amp;lt;br&amp;gt;Los sistemas de visión artificial han evolucionado poco a poco a medida que la tecnología ha evolucionado y ha permitido la creación de sensores, computadoras y algoritmos de procesamiento más potentes.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
De forma básica un sistema de visión artificial está conformado por varios subsistemas capaces de realizar dos funciones básicas:&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
#Captar la información de la escena real mediante la proyección en una imagen. &lt;br /&gt;
#Analizar las imágenes para extraer la información que contienen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Los sensores, la iluminación y las tarjetas digitalizadoras son los dispositivos más importantes en la captura de la información de las escenas reales; en cambio el mayor peso del análisis de las imágenes captadas se encuentra a nivel de software aunque en ocasiones se encuentran dispositivos que realizan la extracción de la información utilizando hardware especializado, un ejemplo de esto son las tarjetas digitalizadoras que contienen incorporadas funciones de procesamiento como es el caso de filtrado para detectar contornos construidas por la compañía [http://www.matrox.com Matrox]. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Sensores.  ===&lt;br /&gt;
&lt;br /&gt;
Existe gran diversidad de sensores a partir de los cuales se pueden obtener imágenes. Su principal clasificación es a partir de la naturaleza de la señal que conforman la imagen, dentro de ellos podemos mencionar, los sensores de Rayos X, Rayos Gamma, luz ultravioleta, infrarroja, etc. Por otra parte podemos mencionar los sensores basados en el principio del eco como es el caso de los radares y los equipos de ultrasonido.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La variedad de sensores utilizados en sistemas de visión artificial se ha expandido hasta dominios insospechados en este aspecto estos sistemas superan ampliamente al sistema de visión humano el cual sólo puede tomar información visual dentro del espectro visible. Sin embargo no cabe duda que los sensores más utilizados, en aplicaciones que requieran de este tipo de sistemas, son la cámaras ya sean estas fotográficas o de video.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Las cámaras son las encargadas de captar la información luminosa de la escena a analizar y convertirla en una señal, analógica o digital, para ser utilizada por los sistemas de procesamiento.&amp;lt;br&amp;gt;Existen varios tipos de cámaras digitales, las cuales se dividen en función de: &lt;br /&gt;
&lt;br /&gt;
*Modo de captar la información de la escena. Dentro de esta categoría se pueden mencionar las cámaras basadas en tecnología Vidicom, Orticom y CCD. &lt;br /&gt;
*Modo de exploración. Aquí se encuentran las cámaras de exploración de línea y área. &lt;br /&gt;
*Estado sólido y no sólido.&lt;br /&gt;
&lt;br /&gt;
=== Iluminación.  ===&lt;br /&gt;
&lt;br /&gt;
La iluminación de una escena es uno de los puntos sensibles en un sistema de visión. Las fuentes de luz se deben escoger en función de la aplicación que se desea realizar, una fuente mal escogida puede traer consigo un sin número de anormalidades difíciles de eliminar como son el caso de las sombras, las reflexiones y el bajo contraste. Es por ello que el conocimiento del tipo de iluminación a utilizar se debe tener muy en cuenta.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Iluminación tipo LED  ====&lt;br /&gt;
&lt;br /&gt;
La luz emitida por este tipo de fuente presenta como ventaja fundamental que tiene naturaleza monocromática, estos dispositivos presentan una larga vida útil, alto rendimiento y requieren de una fuente de alimentación de muy baja potencia además presentan un costo excesivamente bajo. Sus principales desventajas son que emiten poca intensidad y que en ocasiones dos LEDs similares presentan diferencias en la longitud de onda de la luz que emiten.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Flash  ====&lt;br /&gt;
&lt;br /&gt;
Normalmente se utilizan para captar imágenes en movimiento, son fuentes de luz de gran intensidad luminosa que se ve poco afectada por la luz ambiente. Su principal desventaja es la fuente de alimentación las cuales deben estar bien sincronizadas con le sistema de captura de la imagen, presentan gran disipación de calor y pierden luminosidad con el tiempo. A su favor podemos decir que son fuentes extremadamente rápidas.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Láser  ====&lt;br /&gt;
&lt;br /&gt;
Muchos hemos escuchado hablar de lo extremadamente direccional de la luz emitida por este tipo de fuente además presenta la característica de ser monocromática. Se postula como una fuente de luz casi perfecta aunque su inconveniente principal es su costo y la necesidad de colocarle dispositivos auxiliares para realizar barridos de la zona de interés.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Lámpara Incandescente  ====&lt;br /&gt;
&lt;br /&gt;
Su iluminación es bastante homogénea aunque presenta las dificultades de ser consumidoras y disipadoras de calor. No presentan tiempos de vida largo aunque si son muy baratas.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Lámparas Fluorescentes  ====&lt;br /&gt;
&lt;br /&gt;
Su iluminación es muy clara aunque presentan tiempos de vida cortos y las pérdidas de iluminación con el tiempo son acentuadas. El costo de este tipo de fuente es bajo.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Tarjetas digitalizadoras.  ===&lt;br /&gt;
&lt;br /&gt;
La función de estas tarjetas es captar la señal que ofrece el sensor de imagen y convertirla a formato digital y entregarla al dispositivo inteligente, llámese PC o PLC, para su posterior análisis. Una muestra de este tipo de dispositivo se observa en la siguiente figura&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Las funciones principales que realiza este tipo de dispositivo son: &lt;br /&gt;
&lt;br /&gt;
#Recoger la señal analógica procedente de la cámara. &lt;br /&gt;
#Convertir la señal analógica en digital. &lt;br /&gt;
#Almacenar la señal digital en memoria.&lt;br /&gt;
&lt;br /&gt;
Las tarjetas comerciales incluyen: Memoria propia, funciones de procesado, conversores digital-analógico y analógico-digital e incluso presentación en pantalla de la imagen. &lt;br /&gt;
&lt;br /&gt;
=== Análisis de Imágenes Digitales.  ===&lt;br /&gt;
&lt;br /&gt;
Una vez captada la imagen por el sensor y transmitida al dispositivo donde será procesada, el paso siguiente es realizar la extracción de la información explícita que encierra dicha imagen, por ejemplo posición de los objetos, forma, textura etc.&amp;lt;br&amp;gt;&lt;br /&gt;
Las técnicas utilizadas para realizar la extracción de esta información se dividen en cuatro grupos fundamentales: &lt;br /&gt;
&lt;br /&gt;
#Preprocesado. &lt;br /&gt;
#Segmentación. &lt;br /&gt;
#Descripción. &lt;br /&gt;
#Reconocimiento.&amp;amp;nbsp;&lt;br /&gt;
&lt;br /&gt;
==== Preprocesado  ====&lt;br /&gt;
&lt;br /&gt;
Este grupo de funciones se especializa en realizarle mejoras a la imagen captada, es decir resalta un sin número de características que conllevan a elevar la calidad de la imagen a la hora de ser analizada. &lt;br /&gt;
Dentro de las funciones más comunes se encuentra la eliminación del ruido, el cambio de contraste y brillo, las transformaciones geométricas dentro de otras.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Segmentación [[Image:SegmentacionInmagenes.jpg|frame|right]]  ====&lt;br /&gt;
&lt;br /&gt;
La clasificación de la escena en sus partes u objetos es a lo que se le llama segmentación de la imagen. Estas técnicas se basan en encontrar dónde se encuentran grupos de pixels que conformen un ente a clasificar (objeto), para ello estas técnicas se basan en los principios de discontinuidad y similitud. La siguiente figura nos visualiza una muestra metalográfica en la cual son detectados todos los granos de la misma y son etiquetados con diferentes colores indicando su fronteras.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Descripción  ====&lt;br /&gt;
&lt;br /&gt;
Estas técnicas se basan en extraer, del ente a estudiar, las características que lo diferencian de los demás. Para realizar esta extracción de características es necesario realizar un estudio del objeto a analizar y extraer con cuidado las características invariantes que posea. Éstas  deben ser, generalmente, independientes a rotaciones, escalamientos corrimientos de dicho objeto. Dentro de estas características podemos mencionar, área perímetro, circularidad, patrones de texturas, rasgos de formas, etc.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Reconocimiento&amp;lt;br&amp;gt; ====&lt;br /&gt;
&lt;br /&gt;
Una vez obtenidas las características que describen el objeto a estudiar, se pasa al reconocimiento del mismo, esto no es más que la clasificación, utilizando cualquier técnica conocida, llámese inteligencia artificial, búsquedas deductivas en base de datos, comparación con patrones etc.&amp;lt;br&amp;gt;&lt;br /&gt;
Dentro de las técnicas más utilizadas se encuentra la utilización de redes neuronales artificiales, algoritmos genéticos y métodos estadísticos avanzados.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Aplicaciones ==&lt;br /&gt;
&lt;br /&gt;
* Robótica&lt;br /&gt;
** [[Control Servo visual]]&lt;br /&gt;
** [[Robots móviles]]&lt;br /&gt;
*Control de Calidad&lt;br /&gt;
** Sistemas de Inspección Visual&lt;br /&gt;
* Sistemas de Seguridad&lt;br /&gt;
** [[Detección de Movimiento]]&lt;br /&gt;
** [[Detección de Instrusos]]&lt;br /&gt;
&lt;br /&gt;
== Grupos de Investigación en Cuba&amp;lt;br&amp;gt; ==&lt;br /&gt;
&lt;br /&gt;
*Centro de Estudios de Electrónica y Tecnologías de la Información, CEETI. Facultad de Ingeniería Eléctrica, Universidad Central “Marta Abreu” de Las Villas&amp;lt;br&amp;gt;&lt;br /&gt;
*[http://www.cenatav.co.cu CENATAV - Centro de Aplicaciones de Tecnologías de Avanzada]&amp;lt;br&amp;gt;&lt;br /&gt;
*[http://www.cedai.com.cu Empresa de Automatización Integral, CEDAI]&amp;lt;br&amp;gt;&lt;br /&gt;
*Grupo de Automatización, Robótica Persepción (GARP), Facultad de Ingeniería Eléctrica, Universidad Central “Marta Abreu” de Las Villas&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Fuentes  ==&lt;br /&gt;
&lt;br /&gt;
http://www.ph.tn.tudelft.nl/Courses/FIP/noframes/fip-Contents.html (Delft University, Image Processing Fundamentals, Internet Tutorial)&amp;lt;br&amp;gt;&lt;br /&gt;
http://homepages.inf.ed.ac.uk/rbf/CVonline/ (On-Line Compendium of Computer Vision)&amp;lt;br&amp;gt;&lt;br /&gt;
http://www.ph.tn.tudelft.nl/Courses/FIP/ (An interactive image processing course)&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Category:Sistemas_Automatizados]]&lt;/div&gt;</summary>
		<author><name>Moises cedai</name></author>
		
	</entry>
	<entry>
		<id>https://www.ecured.cu/index.php?title=Cibern%C3%A9tica&amp;diff=28467</id>
		<title>Cibernética</title>
		<link rel="alternate" type="text/html" href="https://www.ecured.cu/index.php?title=Cibern%C3%A9tica&amp;diff=28467"/>
		<updated>2010-03-09T19:08:47Z</updated>

		<summary type="html">&lt;p&gt;Moises cedai: /* Cibernética y robótica */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Aplicación|nombre=Cibernética|logo=Cibernetica.jpg‎ |descripcion= Estudio interdisciplinario de los sistemas de control entre los seres vivios (humanos)|creador=|fecha_de_creacion=|sitio_web=}}'''Cibernética'''. Estudio interdisciplinario de los sistemas de control entre los seres vivios (humanos) y los entes artificiales. La cibernética está estrechamente vinculada a la [[Teoría de control]] y a la [[Teoría de sistemas]]. &lt;br /&gt;
&lt;br /&gt;
Tanto en sus orígenes como en su evolución, en la segunda mitad del [[Siglo XX]], la cibernética es igualmente aplicable a los sistemas físicos y sociales (es decir, basados en el lenguaje). Los [[Sistema complejo|sistemas complejos]] afectan y luego se adaptan a su ambiente externo; en terminos técnicos, se centra en funciones de [[Control]] y [[Comunicación]]: ambos fenómenos externos e internos del/al sistema. Esta capacidad es natural en los organismos vivos y se ha imitado en [[Máquina|máquinas]] y [[Organización|organizaciones]]. Especial atención se presta a la [[Retroalimentación]] y sus conceptos derivados. &lt;br /&gt;
&lt;br /&gt;
== Etimología  ==&lt;br /&gt;
&lt;br /&gt;
La palabra '''cibernética''' proviene del griego ''Κυβερνήτης'' (''kybernetes'') y significa &amp;quot;'''arte de pilotar un navío'''&amp;quot;, aunque [[Platón]] la utilizó en [[La República]] con el significado de &amp;quot;arte de dirigir a los hombres&amp;quot; o &amp;quot;arte de gobernar&amp;quot;. Éste es un término genérico antiguo pero aún usado para muchas áreas que están incrementando su especialización bajo títulos como: [[Sistema adaptativo complejo|sistemas adaptativos]], [[Inteligencia artificial]], [[Sistema complejo|sistemas complejos]], [[Complejidad computacional|teoría de complejidad]], [[Sistemas de control]], [[Aprendizaje organizacional]], [[Teoría de sistemas matemáticos]], [[Sistemas de soporte a decisiones|sistemas de apoyo a las decisiones]], [[Dinámica de sistemas]], [[Teoría de la Información]], [[Investigación de operaciones]], [[Simulación]] e [[Ingeniería de Sistemas]].. &lt;br /&gt;
&lt;br /&gt;
== Historia  ==&lt;br /&gt;
&lt;br /&gt;
La cibernética es una ciencia,nacida hacia [[1948]] e impulsada inicialmente por [[Norbert Wiener]] que tiene como objeto “el control y comunicación en el animal y en la máquina” o “desarrollar un lenguaje y técnicas que nos permitirán abordar el problema del control y la comunicación en general”. &lt;br /&gt;
&lt;br /&gt;
En [[1950]], Ben Laposky, un matemático de Iowa, creó los oscilones o abstracciones [[Electrónica]]s por medio de un [[Ordenador analógico]]: se considera esta posibilidad de manipular ondas y de registrarlas electrónicamente como el despertar de lo que habría de ser denominado computer graphics y, luego, computer art e infoarte. La cibernética dio gran impulso a la teoría de la información a mediados de los años [[1960]], la computadora digital sustituyo la analógica en la elaboración de imágenes electrónicas. En esos años aparecen la segunda generación de computadoras (con [[Transistor]]es en 1960) concretándose por entonces los 1° dibujos y gráficos de computadora, y la tercera (con [[Circuito integrado|circuitos integrados]], en [[1964]]) así como los [[Lenguaje de programación|lenguajes de programación]]. &lt;br /&gt;
&lt;br /&gt;
En [[1965]] tuvo lugar en Stuttgart la exposición &amp;quot;Computer-grafik&amp;quot;. Pero la muestra que consagró la tendencia fue la que tuvo lugar en [[1968]] bajo el titulo “Cibernetic Serendipity” en el Instituto de Arte Contemporáneo de [[Londres]]. También en ese año se destacó la exposición “Mindextenders” del Museum of Contemporary Crafs de Londres. &lt;br /&gt;
&lt;br /&gt;
En [[1969]] el [[Museo Brooklin]] organizó la muestra “Some more Beginnings”. En ese mismo año, en [[Buenos Aires]] y otras ciudades de [[Argentina]], se presentaba Arte y cibernética, organizada por Jorge Glusberg con esta muestra se inauguraría los principios de la relación arte/ imagen digital en ese país. En [[España]] la primera manifestación fue la de “Formas computables”- [[1969]]- “Generación automática de formas plásticas” -[[1970]]-ambas organizadas por el Centro de Cálculo de la Universidad de Madrid. En los primeros meses de [[1972]], el Instituto Alemán de [[Madrid]] y de [[Barcelona]] han presentado una de las muestras más completas que ha tenido lugar en [[España]], titulada &amp;quot;Impulso arte computador&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
Las primeras experiencias de lo que luego se llamaría net.art. se remontan al año [[1994]], es importante aclarar que ya por los [[1960]] existían algunas antecedentes. De todas formas se puede establecer, que las primeras experiencias donde la [[Tecnología]] [[Informática]] puesta al servicio de la comunidad funciono como soporte estético trascurren por aquellos años y rompe con la idea de lectura lineal de la obra... &lt;br /&gt;
&lt;br /&gt;
=== Raíz de la teoría cibernética  ===&lt;br /&gt;
&lt;br /&gt;
La palabra cibernética fue utilizada por primera vez en el contexto de &amp;quot;el estudio de auto-gobierno&amp;quot; por Platón en Las Leyes para significar la gestión de las personas. Las palabras de gobernar y el gobernador están relacionados con la misma raíz griega a través de la América cognados gubernare y gubernator. La palabra &amp;quot;cybernétique&amp;quot; también fue utilizado en 1834 por el físico André-Marie Ampère (1775-1836) para referirse a las ciencias de gobierno en su sistema de clasificación de los conocimientos humanos. James Watt El primer sistema de regulación automática artificial, un reloj de agua, fue inventado por el Ktesibios mecánico. &lt;br /&gt;
&lt;br /&gt;
En sus relojes de agua, el agua fluía de una fuente, como un tanque en un depósito, luego desde el depósito a los mecanismos del reloj. Ktesibios dispositivo usó un flotador en forma de cono para controlar el nivel del agua en su embalse y ajustar la velocidad del flujo del agua en consecuencia para mantener un nivel constante de agua en el embalse, de modo que no desbordó ni se le permitió funcionar en seco . Esta fue la primera prótesis auto verdaderamente automático dispositivo normativo que no requiere la intervención externa entre la retroalimentación y el control del mecanismo.Aunque no se refieren a este concepto con el nombre de Cibernética (lo consideraban como un campo de la ingeniería), Ktesibios y otros como Heron y Su Song se consideran algunos de los primeros en estudiar los principios cibernéticos. El estudio de los mecanismos de teleológica (del griego τέλος o telos para el final, meta o propósito) en máquinas con fechas de retroalimentación correctiva de tan lejos como a finales de 1700 cuando el motor de vapor de James Watt estaba equipado con un gobernador, una válvula de votos centrífugas para el control de la velocidad del motor. Alfred Russel Wallace lo identificó como el principio de la evolución en su famoso artículo de 1858. En 1868, James Clerk Maxwell publicó un artículo teórico sobre los gobernadores, uno de los primeros para discutir y perfeccionar los principios de la auto-regulación de los dispositivos. Jakob von Uexküll aplica el mecanismo de retroalimentación a través de su modelo de ciclo de funcionamiento (Funktionskreis) con el fin de explicar el comportamiento de los animales y los orígenes del sentido en general. &lt;br /&gt;
&lt;br /&gt;
== Definiciones  ==&lt;br /&gt;
&lt;br /&gt;
La '''cibernética''', según el epistemólogo, antropólogo, cibernetista y padre de la terapia familiar, [[Gregory Bateson]], es '''la rama de las matemáticas que se encarga de los problemas de control, recursividad e información'''. Bateson también afirma que la cibernética es &amp;quot;el más grande mordisco a la fruta del árbol del Conocimiento que la humanidad haya dado en los últimos 2000 años&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
[[Stafford Beer]], filósofo de la teoría organizacional y gerencial, de quien el propio Wiener dijo que debía ser considerado como el padre de la cibernética de gestión, define a la cibernética como “'''la ciencia de la organización efectiva'''”. &lt;br /&gt;
&lt;br /&gt;
Según el Profesor Dr. [[Stafford Beer]], '''la cibernética estudia los flujos de información que rodean un sistema''', y la forma en que esta información es usada por el sistema como un valor que le permite controlarse a si mismo: ocurre '''tanto para sistemas animados como inanimados''' indiferentemente. La cibernética es una '''ciencia interdisciplinar''', estando tan ligada a la física como al estudio del cerebro como al estudio de los computadores, y teniendo también mucho que ver con los lenguajes formales de la ciencia, proporcionando herramientas con las que describir de manera objetiva el comportamiento de todos estos sistemas. &lt;br /&gt;
&lt;br /&gt;
El propio Stafford Beer afirmó: &amp;quot;Probablemente la primera y más clara visión dentro de la naturaleza del '''control''' [http://pespmc1.vub.ac.be/CONTROL.html]... fue que éste no trata de tirar de palancas para producir unos resultados deseados e inexorables. Esta noción del control se aplica sólo a máquinas triviales. &lt;br /&gt;
&lt;br /&gt;
Nunca se aplica un sistema total que incluye cualquier clase de elemento probabilístico - desde la [[Meteorología]], hasta las personas; desde los mercados, a la política económica. No: '''la característica de un sistema no-trivial que está ''bajo control'' es que''' a pesar de tratar con variables demasiado extensas para cuantificar, demasiado inciertas para ser expresadas, e incluso demasiado difíciles de comprender, '''algo puede ser hecho para generar un objetivo predecible'''. Wiener encontró justo la palabra que quería en la operación de los grandes barcos de la antigua Grecia. En el mar, los grandes barcos batallaban contra la lluvia, el viento y las mareas -- cuestiones de ninguna forma predecibles. Sin embargo, si el hombre, operando sobre el timón, podía mantener su mirada sobre un lejano faro, podría manipular la caña del timón, ajustándola constantemente en tiempo-real, hasta alcanzar la luz. Esta es '''la función del timonel'''. En los tiempos rudos de Homero la palabra Griega para designar al timonel era kybernetes, que Wiener tradujo al Inglés como cybernetics, en español cibernética.&amp;quot; &lt;br /&gt;
&lt;br /&gt;
En una reflexión muy poética dada por [[Gordon Pask]] la cibernética es “la ciencia de las metáforas a ser defendidas.” &lt;br /&gt;
&lt;br /&gt;
== Cibernética y robótica  ==&lt;br /&gt;
&lt;br /&gt;
Mucha gente asocia la cibernética con la [[Robótica]], los [[Robot]]s y el concepto de ''[[Cyborg]]'' debido al uso que se le ha dado en algunas obras de [[Ciencia ficción]], pero desde un punto de vista estrictamente científico, '''la cibernética trata acerca de sistemas de control basados en la [[Retroalimentación]]'''. &lt;br /&gt;
&lt;br /&gt;
Ciertas aplicaciones de la cibernética pueden presentar algunas desventajas por ejemplo: &lt;br /&gt;
&lt;br /&gt;
*La creación de máquinas complejas que reemplacen a los trabajadores provocaría un recorte de personal. &lt;br /&gt;
*En un futuro ya no se ocuparía personal &amp;quot;viejo&amp;quot; y contratarían técnicos jóvenes para el mantenimiento de las máquinas. &lt;br /&gt;
*Es una tecnología muy potente pero su gran limitación es encontrar la relación máquina-sistema nervioso; ya que para esto se debería conocer el sistema nervioso perfectamente.&lt;br /&gt;
&lt;br /&gt;
Algunas ventajas son: &lt;br /&gt;
&lt;br /&gt;
*La reducción de las jornadas laborales, los trabajos complejos o rutinarios pasarían a ser de las máquinas. Además, la cibernética brinda un gran aporte al campo medicinal. &lt;br /&gt;
*Un conocimiento mayor de como funcionan los sistemas complejos pudiera llevar a la solución de problemas también complejos como la criminalidad en las grandes ciudades&lt;br /&gt;
&lt;br /&gt;
Un ejemplo de sistemas enfocados a la sustitución del hombre en tareas complejas son los conocidos como [[Visión Artificial|Sistemas de Visión Artificial]] cuyo objeto fundamental es la modelación de la visión humana por medio del uso de medios de cómputo.&lt;br /&gt;
&lt;br /&gt;
== Cibernética y revolución tecnológica  ==&lt;br /&gt;
&lt;br /&gt;
La cibernética ha desempeñado un papel decisivo en el surgimiento de la actual revolución tecnológica. [[Alan Turing]], alumno de [[John von Neumann]] (otro de los pioneros de la cibernética), ambos precursores de la computadora y [[Claude Shannon]] alumno de [[Norbert Wiener]] con su [[Teoría de la Información]]. &lt;br /&gt;
&lt;br /&gt;
== Fuentes y Enlaces externos  ==&lt;br /&gt;
&lt;br /&gt;
*[http://www.asc-cybernetics.org/foundations/timeline.htm Sociedad Americana para la Cibernética, en inglés] &lt;br /&gt;
*[http://pespmc1.vub.ac.be/DEFAULT.html Principia Cybernetica, en inglés] &lt;br /&gt;
*[http://www.asc-cybernetics.org/foundations/timeline.htm Historia de la cibernética, en inglés] &lt;br /&gt;
*[http://http://www.stanford.edu/group/SHR/4-2/text/foerster.html Ethics and second-order cybernetics] &lt;br /&gt;
*[http://www.nickgreen.pwp.blueyonder.co.uk/beerWhatisCybernetics.pdf What is cybernetics, por Stafford Beer] &lt;br /&gt;
*[http://www.futurovenezuela.org/_curso/6-sysmeth.pdf THE SYSTEMS PERSPECTIVE:METHODS AND MODELS FOR THE FUTURE] &lt;br /&gt;
*[http://cibernetica.diinf.usach.cl Laboratorio Cibernética Ingeniería Informática, Universidad de Santiago de Chile] &lt;br /&gt;
*[http://alejandro313.googlepages.com/cibermat La Cibernética] Página sobre la cibernética y las tendencias actuales. &lt;br /&gt;
*[http://cibernetica.wordpress.com/ De la cibernética a la inteligencia artificial] &lt;br /&gt;
*[http://3y5y8sistemicacibernetica.blogspot.com/ Cibernética en la recursión del Yin Yang] &lt;br /&gt;
*[http://www.cybersyn.cl/ Proyecto cybersyn]&lt;br /&gt;
&lt;br /&gt;
[[Category:Matemáticas]]&lt;/div&gt;</summary>
		<author><name>Moises cedai</name></author>
		
	</entry>
	<entry>
		<id>https://www.ecured.cu/index.php?title=Visi%C3%B3n_Artificial&amp;diff=28317</id>
		<title>Visión Artificial</title>
		<link rel="alternate" type="text/html" href="https://www.ecured.cu/index.php?title=Visi%C3%B3n_Artificial&amp;diff=28317"/>
		<updated>2010-03-09T17:28:41Z</updated>

		<summary type="html">&lt;p&gt;Moises cedai: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Desarrollo}} &lt;br /&gt;
&lt;br /&gt;
'''Visión Artificial''' &lt;br /&gt;
&lt;br /&gt;
También conocida como ''Visión por Computadora.'' &lt;br /&gt;
&lt;br /&gt;
Se considera como el conjunto de todas aquellas técnicas y modelos que nos permitan la adquisición, procesamiento, análisis y explicación de cualquier tipo de información espacial del mundo real obtenida a través de imágenes digitales. &lt;br /&gt;
&lt;br /&gt;
== Otras Definiciones  ==&lt;br /&gt;
&lt;br /&gt;
''Visión Artificial es la ciencia que estudia, utilizando computadoras digitales, los procesos de obtención, caracterización, interpretación de la información procedentes de imágenes tomadas de un mundo tridimensional.'' &lt;br /&gt;
&lt;br /&gt;
''La Visión es un proceso de tratamiento de información que permite obtener una descripción simbólica del mundo real a partir de imágenes.'' &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Antecedentes  ==&lt;br /&gt;
&lt;br /&gt;
Dentro de los hitos más relevantes, en el modelado de la percepción visual, podemos mencionar los estudios de Kepler sobre el análisis geométrico de la formación de la imagen en el ojo, las apreciaciones de Newton sobre visión en color, Helmhotz (1910) sobre óptica fisiológica y Wertheimer (1912) sobre el movimiento aparente de agrupaciones de puntos o campos. Estos trabajos, unidos a otros, han establecido las bases de las actuales teorías de percepción visual. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Muchos concuerdan en que el primer gran paso se logró a principio del siglo XX con la aparición de la escuela de psicología de la Gelstat basada, principalmente, en los trabajos de Wertheimer. Esta escuela tuvo, dentro de sus resultados más relevantes, el establecer criterios que planteaban que características como la similaridad, homogeneidad, cercanía, etc, eran suficientes para tratar de explicar las propiedades de los mecanismos psicofísicos de la visión humana. Pero, esta aproximación con criterios tan globales se perdió años más tarde al no poder dar respuesta a nuevos interrogantes dentro del proceso de percepción visual&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Alrededor de los años 50, la investigación se orientó en la búsqueda de explicaciones al más bajo nivel celular, lo que originó una nueva corriente de ideas y teorías que con base en las potencialidades de las neuronas como células individuales. Se intentó explicar los mecanismos y propiedades de la visión humana, Hubel y Weisel (1962, 1968) y Barlow (1972). Sin embargo, esta aproximación tampoco pudo dar respuesta a los problemas más profundos de como nuestro mecanismo visual codifica, representa y reconoce distintos tipos de informaciones espaciales.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dada la enorme complejidad mostrada por el sistema de visión humana y como consecuencia del lento avance de las teorías y algoritmos que explicaban su funcionamiento y propiedades se intentó abordar estos problemas de formas más directas a partir de tres enfoques distintos. El primero se basó en el desarrollo de técnicas empíricas basadas en criterios de tipo matemático que aproximaban estos problemas de estimación de bordes y líneas usando distintos criterios. Dentro de este Grupo se encontraba Azriel Rosenfeld. Estas aproximaciones crearon algunas ideas interesantes como el uso simultáneo de operadores de distinto tamaño, pero tuvo el gran inconveniente de no poder proponer métodos para la evaluación de los distintos algoritmos.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
El segundo enfoque se basó en profundizar en el problema reduciendo su alcance a un mundo de bloques blancos iluminados sobre fondo negro. Los bloques podían tener cualquier forma, siempre que todas sus superficies fueran planas y todos sus bordes rectos. Este modelo funcionó perfectamente en ciertos trabajos como los realizados por Waltz (1975) y Mackworth (1973); ellos resolvieron interpretaciones de dibujos lineales a partir de estudios de imágenes de prismas sólidos. De hecho, la simplificación impuesta en este modelo se había hecho con el razonamiento de que presentado un conocimiento profundo del problema en un mundo simplificado permitiría más tarde extrapolar dichos conocimientos a mundos más complejos.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
En años más recientes se enfrascaron en idear un modelo más completo de la percepción visual que eliminara las limitaciones de los anteriores, esta especialización trajo consigo el tercer enfoque. Dentro de los trabajos más relevantes podemos mencionar los realizados por Horn (1975, 1977) sobre la formación de la imagen. En ellos Horn establece modelos de cálculo que expresan la formación de la imagen a través de ecuaciones diferenciales que relacionan los valores de intensidad de la imagen con la geometría de la superficie tras estudiar con gran detalle el modo en que la iluminación, la geometría, la reflectancia de la superficie y el punto de vista del observador actuaban de forma conjunta para crear los valores de intensidad medidos en la imagen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Fue entonces cuando diversos investigadores, dentro de los cuales se destacó Julesz (1975), demostraron que los mecanismos de la visión estereoscópica son realizados en la retina en una etapa muy previa del proceso de visión, y que el mecanismo de visión humana tiene la posibilidad de interpretar imágenes en 3D usando solamente las informaciones sobre profundidad, distancia y textura.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Estos estudios lograron establecer las denominadas teorías de tipo modular, las cuales representaban el proceso de visión como la sucesión de transformaciones que a partir de la escena del mundo externo, produce una descripción útil al observador sin estar entorpecida por la información irrelevante. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La mayoría de los estudiosos del tema concuerdan en que a las técnicas asociadas al estudio de los sistemas de visión artificial debe considerarse como parte de la Inteligencia Artificial por cuanto modelan actividades del cerebro humano.&amp;lt;br&amp;gt;En los últimos años se han realizado un sin número de trabajos en el campo de la visión artificial. Institutos como el MIT (Massachusetts Institute of Technology), llevaron la delantera durante los años 70 y marcaron pautas en los estudios en estos temas. Uno de los investigadores más relevantes de este instituto resultó ser David Marr, el cual estableció una metodología modular tipo “Botton/Up”. Para lograr realizar el procesamiento de una imagen percibida, Marr planteó tres grandes bloques para el procesamiento de la información. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
#Cálculo del esbozo primitivo como estructura informacional que caracteriza los distintos rasgos básicos (bordes, líneas, arcos, ceros, manchas, etc) presentes en la imagen de intensidades (nivel 2D). &lt;br /&gt;
#Construcción de las superficies presentes en la imagen desde el punto de vista del observador, a partir de la informaciones suministradas por el esbozo primitivo y las informaciones tridimensionales proporcionadas por las estereoscopía, sombreado, reflectancia, iluminación, etc. &lt;br /&gt;
#Construcción del modelo que representa a los objetos en el espacio y permite catalogarlos y compararlos con información previamente almacenada (nivel 3D).&lt;br /&gt;
&lt;br /&gt;
Marr forjó las bases en el campo del estudio de los mecanismos de la visión humana y el análisis de imágenes digitales, sus principales hitos se basaron en realizar métodos para la descomposición de la información en niveles 2D, 3D y sus esquemas de representación de la información en cada uno de estos niveles.&amp;lt;br&amp;gt;Otros estudiosos se dedicaron a profundizar en estos estudios dentro de los que podemos mencionar a Nishihara el cual planteó en 1978 que la información acerca de la geometría y la reflectancia de las superficies visibles se codifica en la imagen de varias formas y puede ser decodificada por procesos casi independientes.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La comprensión de esta frase fue el comienzo que dio lugar a la aparición de múltiples teorías sobre los procesos de decodificación. Muchos de estos procesos de decodificación permanecen hoy en día como áreas activas de investigación. De entre los más importantes podemos citar: la estereoscopía, la derivación de la estructura a partir del movimiento aparente, la selectividad de dirección, el cálculo de la profundidad a partir del flujo óptico, el cálculo de la orientación de la superficie a partir de su textura, el cálculo de la forma a partir de la sombra, la estereoscopía fotométrica, etc. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Con la llegada de las primeras computadoras digitales en los años 50-60, se comienza a necesitar de disponer de técnicas para la transmisión y procesamiento de imágenes desde satélite, uno de los empujes dados a estas técnicas de trasmisión, realce y restauración de imágenes fueron realizados por el Jet Propulsion Laboratory (EEUU), encargado del procesamiento de las imágenes mandadas por los primeros satélites y por el National Institute of Health (EEUU) dedicado al estudio de imágenes de rayos X, microscopía óptica y electrónica. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
No cabe la menor duda que el MIT junto con la Universidad de Stanford se perfilan como los centros más sobresalientes en los estudios de visión artificial, dentro de sus trabajos más relevantes se pueden mencionar la visión aplicada a robótica bajo el proyecto Hand-Eye y el llamado proyecto UIS (Image Understanding System), este último proyecto marca el comienzo del uso de estas técnicas en aplicaciones de tipo militar. Por otra parte países como Japón desarrollaron el llamado proyecto PIPS (Pattern-Information Processing System), el cual impulsó el desarrollo del análisis de imágenes.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Los estudios realizados por los países de Europa no se quedaron detrás cabe destacar la investigación desarrollada, durante los años setenta, por los profesores G. Matheron y J. Serra de la École National Supérieure des Mines de Paris (Francia) el cual ofreció aportes a la geometría integral y el cálculo de probabilidades para la caracterización y medición de formas, esta metodología se denomina Morfología Matemática y ha tenido sus principales áreas de aplicación en los campos de la geología, la biología y la medicina. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
A partir de este momento se observar el comienzo de cierta especialización en las técnicas existentes. Así, comienzan a aparecer los conceptos de técnicas para el procesamiento de imágenes digitales como el conjunto de todas aquellas técnicas asociadas a la captura, codificación y representación de las imágenes que no introducen sobre las mismas ningún tipo de interpretación, y técnicas para el análisis de imágenes digitales, técnicas de visión por computadora o visión mediante robot como acepciones que se refieren a aquellas técnicas que tratan de extraer la información presente en la imagen con el fin de hacer una interpretación de las escena representada por dicha imagen. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sistema de Visión Humano  ==&lt;br /&gt;
&lt;br /&gt;
¿Porqué no realizar un modelado perfecto del sistema de visión humano e implementarlo en una computadora?&amp;lt;br&amp;gt;La respuesta no es sencilla, gran cantidad de estudios demuestran claramente que nuestro sistema visual lejos de ser perfecto contiene una serie de irregularidades que no deben ser modeladas para lograr un sistema artificial que supere al humano. No existe ninguna razón para modelar los errores de nuestro sistema.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Para realizar un bosquejo de la argumentación anterior realizaremos un estudio de nuestro sistema de visión y observaremos los puntos débiles y sus fortalezas.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Todo sistema de visión está compuesto por tres partes fundamentales: &lt;br /&gt;
&lt;br /&gt;
#Las señales que percibimos.&amp;amp;nbsp; &lt;br /&gt;
#El medio en que se transmiten. &lt;br /&gt;
#Los mecanismos de decodificación del sistema receptor y/o cerebro.&lt;br /&gt;
&lt;br /&gt;
Una imagen puede describirse como un mapa espacial que sobre una determinada información que nos ofrece algún tipo de sensor. Ejemplos de este tipo de mapas son nuestras percepciones de una determinada situación o escena a partir de nuestros sistemas sensoriales (vista, oído, tacto, gusto, y olfato). Para centrar aun más nuestro estudio nos preguntaremos sobre el significado real de lo que significa ver o adquirir información a través de un sistema sensorial de tipo visual. Si nos centramos en el modelo visual humano asociaremos el concepto de ver con el de percibir una señal luminosa con una intensidad mínima y en un rango de frecuencia espectral dado. Sin embargo hoy en día son bien conocidas las posibilidades de obtener imágenes a partir de sensores que trabajen en condiciones muy distintas de iluminación a las que es sensible el ojo humano, por ejemplo, el espectro infrarrojo, rayos X, etc. Así pues, la posibilidad de formar imágenes debemos asociarla al tipo de sensor usado y a las posibilidades de que dicho sensor sea capaz de captar y decodificar la información que le llega. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Una vez que tenemos conocimiento de la composición de la señal a analizar podemos pasar al estudio del sensor que debe captar la información. En el caso de nuestro sistema de visión, el ojo se perfila como nuestro sensor del espectro visible.&amp;amp;nbsp;El ojo es casi una esfera de unos 20mm de diámetro, formada por un conjunto de membranas denominadas cornea, esclera, coroide y retina. La cornea y la esclera, constituyen las envolturas externas anterior y posterior del ojo respectivamente. La capa coroidal además de alimentar el ojo a través de sus vasos sanguíneos, tiene la misión de absolver las luces extrañas que entran el ojo así como de amortiguar el efecto de dispersión de la luz dentro del globo ocular. El iris o diafragma esta situado en la parte anterior del coroide, y tiene como misión controlar la cantidad de luz que entra en el ojo. Para ello, la pupila o parte central del iris puede cambiar de tamaño en función de la luminosidad incidente desde 2mm a 8mm de diámetro. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Image:Ojo.JPG|frame|right|377x277px|Esquema descriptor del ojo humano]]&amp;amp;nbsp; &lt;br /&gt;
&lt;br /&gt;
La lente del ojo esta formada por capas concéntricas de células fibrosas y esta sujeta al coroide a través de fibras, esta compuesta principalmente por agua (60%-70%), grasa 6% y proteínas. En la lente se absorbe cerca del 8% del espectro de luz visible así como una gran proporción de luz infrarroja y ultravioleta. &amp;lt;br&amp;gt;La membrana más interna del ojo es la retina que cubre toda la pared interna del ojo. Cuando la luz llega al ojo la imagen que transporta se forma en la retina por la sensibilización de dos clases de receptores: los bastones y los conos. &amp;lt;br&amp;gt;El número de conos existentes en un ojo esta entre 6-7 millones y su situación dentro del ojo se concentra alrededor de un punto llamado fóvea. &lt;br /&gt;
&lt;br /&gt;
La misión de los conos dentro del ojo es doble. Por un lado son responsables de la detección del color y por otro ayudan a resolver los detalles finos de la imagen. &amp;lt;br&amp;gt;Cuando una persona quiere resolver detalles finos en una imagen intenta que esta se forme en su retina alrededor de la fóvea, consiguiendo por tanto, que los conos sean mayoritariamente los receptores de la luz. La visión a través de los conos se denomina visión fotocópica o de luz brillante. &amp;lt;br&amp;gt;Por otro lado, el número de bastones existentes en un ojo es muy superior al de conos y esta entre 75-150 millones. Los bastones se distribuyen sobre toda la retina y al igual que los conos tienen una doble misión. Por un lado son responsables de dar una impresión general del campo de visión y por otro son responsables de la sensibilidad a niveles bajos de iluminación. Los bastones no son sensibles al color. &lt;br /&gt;
&lt;br /&gt;
Un objeto que a la luz del día tiene colores vivos, observado a la luz de la luna aparece sin colores, esto es debido a que tan solo los bastones están estimulados. A la visión a través de bastones se le denomina visión escotópica o de luz tenue.&amp;lt;br&amp;gt;El ojo humano es capaz de adaptarse en un rango de valores de iluminación de aproximadamente&amp;amp;nbsp;10 órdenes de magnitud. El punto más importante a la hora de interpretar este enorme rango es el hecho de que el ojo no opera de forma simultánea sobre todo el rango si no que en cada caso y en función de la luminosidad medía existente se hace sensible a un rango alrededor de dicho valor medio. Este efecto de adaptación se denomina adaptación al brillo. Numerosos experimentos han mostrado que el brillo subjetivo percibido es una función logarítmica de la intensidad de luz incidente en el ojo. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
El sistema de visión humano como otras partes de la anatomía del cuerpo humano es fruto de la evolución. Como consecuencia de esto el sistema de visión humano responde a unos patrones mejor que otros, por otro lado puede llegar a conclusiones erradas al interpretar situaciones ambiguas por la existencia de ilusiones visuales, ambigüedades e inconsistencias.Las ambigüedades son muy frecuentes y se basan en que una figura puede tener más de una posible interpretación. Múltiples interpretaciones pueden coexistir o una puede dominar. &amp;lt;br&amp;gt;Los investigadores han demostrado que inferimos de nuestras imágenes en la retina más de lo que de verdad está soportado por la geometría y física de la formación de imágenes. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Helmhotz en su libro Handbook of Physiological Optics publicado a mediados del siglo pasado expresó que cada imagen es una imagen de algo sólo para aquel que conoce como leerla, y que está capacitado con la ayuda de la imagen a formar una idea de la cosa. &amp;lt;br&amp;gt;Esta afirmación nos muestra que el sistema visual humano no realiza inferencias precisas y exactas basadas en la física de la formación de imágenes en el ojo, sino que el sistema visual invoca reglas que se obtienen y están dirigidas por la experiencia previa del individuo y tal vez por la especie. &amp;lt;br&amp;gt;Como se pudo apreciar nuestro sistema de visión ha evolucionado y presenta sistemas de adaptación increíbles a los cambios de iluminación entre otras de sus fortalezas, sin embargo también presenta debilidades que no deben ser tomadas en cuenta a la hora de realizar un sistema que lo simule.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sistema de Visión Artificial [[Image:SistemaVisionArtificial.jpg|frame|right|393x237px|Componentes de un Sistema de Visión Artificial]]  ==&lt;br /&gt;
&lt;br /&gt;
La necesidad de ver artificialmente evoluciona a medida que el ser humano es capaz de estudiar su propio cuerpo y demostrar que cerca del 60% de la corteza cerebral del hombre se dedica a procesar la información visual.&amp;lt;br&amp;gt;Los sistemas de visión artificial han evolucionado poco a poco a medida que la tecnología ha evolucionado y ha permitido la creación de sensores, computadoras y algoritmos de procesamiento más potentes.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
De forma básica un sistema de visión artificial está conformado por varios subsistemas capaces de realizar dos funciones básicas:&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
#Captar la información de la escena real mediante la proyección en una imagen. &lt;br /&gt;
#Analizar las imágenes para extraer la información que contienen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Los sensores, la iluminación y las tarjetas digitalizadoras son los dispositivos más importantes en la captura de la información de las escenas reales; en cambio el mayor peso del análisis de las imágenes captadas se encuentra a nivel de software aunque en ocasiones se encuentran dispositivos que realizan la extracción de la información utilizando hardware especializado, un ejemplo de esto son las tarjetas digitalizadoras que contienen incorporadas funciones de procesamiento como es el caso de filtrado para detectar contornos construidas por la compañía [http://www.matrox.com Matrox]. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Sensores.  ===&lt;br /&gt;
&lt;br /&gt;
Existe gran diversidad de sensores a partir de los cuales se pueden obtener imágenes. Su principal clasificación es a partir de la naturaleza de la señal que conforman la imagen, dentro de ellos podemos mencionar, los sensores de Rayos X, Rayos Gamma, luz ultravioleta, infrarroja, etc. Por otra parte podemos mencionar los sensores basados en el principio del eco como es el caso de los radares y los equipos de ultrasonido.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La variedad de sensores utilizados en sistemas de visión artificial se ha expandido hasta dominios insospechados en este aspecto estos sistemas superan ampliamente al sistema de visión humano el cual sólo puede tomar información visual dentro del espectro visible. Sin embargo no cabe duda que los sensores más utilizados, en aplicaciones que requieran de este tipo de sistemas, son la cámaras ya sean estas fotográficas o de video.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Las cámaras son las encargadas de captar la información luminosa de la escena a analizar y convertirla en una señal, analógica o digital, para ser utilizada por los sistemas de procesamiento.&amp;lt;br&amp;gt;Existen varios tipos de cámaras digitales, las cuales se dividen en función de: &lt;br /&gt;
&lt;br /&gt;
*Modo de captar la información de la escena. Dentro de esta categoría se pueden mencionar las cámaras basadas en tecnología Vidicom, Orticom y CCD. &lt;br /&gt;
*Modo de exploración. Aquí se encuentran las cámaras de exploración de línea y área. &lt;br /&gt;
*Estado sólido y no sólido.&lt;br /&gt;
&lt;br /&gt;
=== Iluminación.  ===&lt;br /&gt;
&lt;br /&gt;
La iluminación de una escena es uno de los puntos sensibles en un sistema de visión. Las fuentes de luz se deben escoger en función de la aplicación que se desea realizar, una fuente mal escogida puede traer consigo un sin número de anormalidades difíciles de eliminar como son el caso de las sombras, las reflexiones y el bajo contraste. Es por ello que el conocimiento del tipo de iluminación a utilizar se debe tener muy en cuenta.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Iluminación tipo LED  ====&lt;br /&gt;
&lt;br /&gt;
La luz emitida por este tipo de fuente presenta como ventaja fundamental que tiene naturaleza monocromática, estos dispositivos presentan una larga vida útil, alto rendimiento y requieren de una fuente de alimentación de muy baja potencia además presentan un costo excesivamente bajo. Sus principales desventajas son que emiten poca intensidad y que en ocasiones dos LEDs similares presentan diferencias en la longitud de onda de la luz que emiten.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Flash  ====&lt;br /&gt;
&lt;br /&gt;
Normalmente se utilizan para captar imágenes en movimiento, son fuentes de luz de gran intensidad luminosa que se ve poco afectada por la luz ambiente. Su principal desventaja es la fuente de alimentación las cuales deben estar bien sincronizadas con le sistema de captura de la imagen, presentan gran disipación de calor y pierden luminosidad con el tiempo. A su favor podemos decir que son fuentes extremadamente rápidas.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Láser  ====&lt;br /&gt;
&lt;br /&gt;
Muchos hemos escuchado hablar de lo extremadamente direccional de la luz emitida por este tipo de fuente además presenta la característica de ser monocromática. Se postula como una fuente de luz casi perfecta aunque su inconveniente principal es su costo y la necesidad de colocarle dispositivos auxiliares para realizar barridos de la zona de interés.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Lámpara Incandescente  ====&lt;br /&gt;
&lt;br /&gt;
Su iluminación es bastante homogénea aunque presenta las dificultades de ser consumidoras y disipadoras de calor. No presentan tiempos de vida largo aunque si son muy baratas.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Lámparas Fluorescentes  ====&lt;br /&gt;
&lt;br /&gt;
Su iluminación es muy clara aunque presentan tiempos de vida cortos y las pérdidas de iluminación con el tiempo son acentuadas. El costo de este tipo de fuente es bajo.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Tarjetas digitalizadoras.  ===&lt;br /&gt;
&lt;br /&gt;
La función de estas tarjetas es captar la señal que ofrece el sensor de imagen y convertirla a formato digital y entregarla al dispositivo inteligente, llámese PC o PLC, para su posterior análisis. Una muestra de este tipo de dispositivo se observa en la siguiente figura&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Las funciones principales que realiza este tipo de dispositivo son: &lt;br /&gt;
&lt;br /&gt;
#Recoger la señal analógica procedente de la cámara. &lt;br /&gt;
#Convertir la señal analógica en digital. &lt;br /&gt;
#Almacenar la señal digital en memoria.&lt;br /&gt;
&lt;br /&gt;
Las tarjetas comerciales incluyen: Memoria propia, funciones de procesado, conversores digital-analógico y analógico-digital e incluso presentación en pantalla de la imagen. &lt;br /&gt;
&lt;br /&gt;
=== Análisis de Imágenes Digitales.  ===&lt;br /&gt;
&lt;br /&gt;
Una vez captada la imagen por el sensor y transmitida al dispositivo donde será procesada, el paso siguiente es realizar la extracción de la información explícita que encierra dicha imagen, por ejemplo posición de los objetos, forma, textura etc.&amp;lt;br&amp;gt;&lt;br /&gt;
Las técnicas utilizadas para realizar la extracción de esta información se dividen en cuatro grupos fundamentales: &lt;br /&gt;
&lt;br /&gt;
#Preprocesado. &lt;br /&gt;
#Segmentación. &lt;br /&gt;
#Descripción. &lt;br /&gt;
#Reconocimiento.&amp;amp;nbsp;&lt;br /&gt;
&lt;br /&gt;
==== Preprocesado  ====&lt;br /&gt;
&lt;br /&gt;
Este grupo de funciones se especializa en realizarle mejoras a la imagen captada, es decir resalta un sin número de características que conllevan a elevar la calidad de la imagen a la hora de ser analizada. &lt;br /&gt;
Dentro de las funciones más comunes se encuentra la eliminación del ruido, el cambio de contraste y brillo, las transformaciones geométricas dentro de otras.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Segmentación [[Image:SegmentacionInmagenes.jpg|frame|right]]  ====&lt;br /&gt;
&lt;br /&gt;
La clasificación de la escena en sus partes u objetos es a lo que se le llama segmentación de la imagen. Estas técnicas se basan en encontrar dónde se encuentran grupos de pixels que conformen un ente a clasificar (objeto), para ello estas técnicas se basan en los principios de discontinuidad y similitud. La siguiente figura nos visualiza una muestra metalográfica en la cual son detectados todos los granos de la misma y son etiquetados con diferentes colores indicando su fronteras.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Descripción  ====&lt;br /&gt;
&lt;br /&gt;
Estas técnicas se basan en extraer, del ente a estudiar, las características que lo diferencian de los demás. Para realizar esta extracción de características es necesario realizar un estudio del objeto a analizar y extraer con cuidado las características invariantes que posea. Éstas  deben ser, generalmente, independientes a rotaciones, escalamientos corrimientos de dicho objeto. Dentro de estas características podemos mencionar, área perímetro, circularidad, patrones de texturas, rasgos de formas, etc.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Reconocimiento&amp;lt;br&amp;gt; ====&lt;br /&gt;
&lt;br /&gt;
Una vez obtenidas las características que describen el objeto a estudiar, se pasa al reconocimiento del mismo, esto no es más que la clasificación, utilizando cualquier técnica conocida, llámese inteligencia artificial, búsquedas deductivas en base de datos, comparación con patrones etc.&amp;lt;br&amp;gt;&lt;br /&gt;
Dentro de las técnicas más utilizadas se encuentra la utilización de redes neuronales artificiales, algoritmos genéticos y métodos estadísticos avanzados.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Grupos de Investigación en Cuba&amp;lt;br&amp;gt; ==&lt;br /&gt;
&lt;br /&gt;
*Centro de Estudios de Electrónica y Tecnologías de la Información, CEETI. Facultad de Ingeniería Eléctrica, Universidad Central “Marta Abreu” de Las Villas&amp;lt;br&amp;gt;&lt;br /&gt;
*[http://www.cenatav.co.cu CENATAV - Centro de Aplicaciones de Tecnologías de Avanzada]&amp;lt;br&amp;gt;&lt;br /&gt;
*[http://www.cedai.com.cu Empresa de Automatización Integral, CEDAI]&amp;lt;br&amp;gt;&lt;br /&gt;
*Grupo de Automatización, Robótica Persepción (GARP), Facultad de Ingeniería Eléctrica, Universidad Central “Marta Abreu” de Las Villas&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Fuentes  ==&lt;br /&gt;
&lt;br /&gt;
[http://www.ph.tn.tudelft.nl/Courses/FIP/noframes/fip-Contents.html Delft University, Image Processing Fundamentals, Internet Tutorial]&amp;lt;br&amp;gt;&lt;br /&gt;
[http://homepages.inf.ed.ac.uk/rbf/CVonline/ On-Line Compendium of Computer Vision]&amp;lt;br&amp;gt;&lt;br /&gt;
[http://www.ph.tn.tudelft.nl/Courses/FIP/ An interactive image processing course]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Category:Sistemas_Automatizados]]&lt;/div&gt;</summary>
		<author><name>Moises cedai</name></author>
		
	</entry>
	<entry>
		<id>https://www.ecured.cu/index.php?title=Visi%C3%B3n_Artificial&amp;diff=28297</id>
		<title>Visión Artificial</title>
		<link rel="alternate" type="text/html" href="https://www.ecured.cu/index.php?title=Visi%C3%B3n_Artificial&amp;diff=28297"/>
		<updated>2010-03-09T17:19:07Z</updated>

		<summary type="html">&lt;p&gt;Moises cedai: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Desarrollo}} &lt;br /&gt;
&lt;br /&gt;
'''Visión Artificial''' &lt;br /&gt;
&lt;br /&gt;
También conocida como ''Visión por Computadora.'' &lt;br /&gt;
&lt;br /&gt;
Se considera como el conjunto de todas aquellas técnicas y modelos que nos permitan la adquisición, procesamiento, análisis y explicación de cualquier tipo de información espacial del mundo real obtenida a través de imágenes digitales. &lt;br /&gt;
&lt;br /&gt;
== Otras Definiciones  ==&lt;br /&gt;
&lt;br /&gt;
''Visión Artificial es la ciencia que estudia, utilizando computadoras digitales, los procesos de obtención, caracterización, interpretación de la información procedentes de imágenes tomadas de un mundo tridimensional.'' &lt;br /&gt;
&lt;br /&gt;
''La Visión es un proceso de tratamiento de información que permite obtener una descripción simbólica del mundo real a partir de imágenes.'' &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Antecedentes  ==&lt;br /&gt;
&lt;br /&gt;
Dentro de los hitos más relevantes, en el modelado de la percepción visual, podemos mencionar los estudios de Kepler sobre el análisis geométrico de la formación de la imagen en el ojo, las apreciaciones de Newton sobre visión en color, Helmhotz (1910) sobre óptica fisiológica y Wertheimer (1912) sobre el movimiento aparente de agrupaciones de puntos o campos. Estos trabajos, unidos a otros, han establecido las bases de las actuales teorías de percepción visual. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Muchos concuerdan en que el primer gran paso se logró a principio del siglo XX con la aparición de la escuela de psicología de la Gelstat basada, principalmente, en los trabajos de Wertheimer. Esta escuela tuvo, dentro de sus resultados más relevantes, el establecer criterios que planteaban que características como la similaridad, homogeneidad, cercanía, etc, eran suficientes para tratar de explicar las propiedades de los mecanismos psicofísicos de la visión humana. Pero, esta aproximación con criterios tan globales se perdió años más tarde al no poder dar respuesta a nuevos interrogantes dentro del proceso de percepción visual&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Alrededor de los años 50, la investigación se orientó en la búsqueda de explicaciones al más bajo nivel celular, lo que originó una nueva corriente de ideas y teorías que con base en las potencialidades de las neuronas como células individuales. Se intentó explicar los mecanismos y propiedades de la visión humana, Hubel y Weisel (1962, 1968) y Barlow (1972). Sin embargo, esta aproximación tampoco pudo dar respuesta a los problemas más profundos de como nuestro mecanismo visual codifica, representa y reconoce distintos tipos de informaciones espaciales.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dada la enorme complejidad mostrada por el sistema de visión humana y como consecuencia del lento avance de las teorías y algoritmos que explicaban su funcionamiento y propiedades se intentó abordar estos problemas de formas más directas a partir de tres enfoques distintos. El primero se basó en el desarrollo de técnicas empíricas basadas en criterios de tipo matemático que aproximaban estos problemas de estimación de bordes y líneas usando distintos criterios. Dentro de este Grupo se encontraba Azriel Rosenfeld. Estas aproximaciones crearon algunas ideas interesantes como el uso simultáneo de operadores de distinto tamaño, pero tuvo el gran inconveniente de no poder proponer métodos para la evaluación de los distintos algoritmos.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
El segundo enfoque se basó en profundizar en el problema reduciendo su alcance a un mundo de bloques blancos iluminados sobre fondo negro. Los bloques podían tener cualquier forma, siempre que todas sus superficies fueran planas y todos sus bordes rectos. Este modelo funcionó perfectamente en ciertos trabajos como los realizados por Waltz (1975) y Mackworth (1973); ellos resolvieron interpretaciones de dibujos lineales a partir de estudios de imágenes de prismas sólidos. De hecho, la simplificación impuesta en este modelo se había hecho con el razonamiento de que presentado un conocimiento profundo del problema en un mundo simplificado permitiría más tarde extrapolar dichos conocimientos a mundos más complejos.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
En años más recientes se enfrascaron en idear un modelo más completo de la percepción visual que eliminara las limitaciones de los anteriores, esta especialización trajo consigo el tercer enfoque. Dentro de los trabajos más relevantes podemos mencionar los realizados por Horn (1975, 1977) sobre la formación de la imagen. En ellos Horn establece modelos de cálculo que expresan la formación de la imagen a través de ecuaciones diferenciales que relacionan los valores de intensidad de la imagen con la geometría de la superficie tras estudiar con gran detalle el modo en que la iluminación, la geometría, la reflectancia de la superficie y el punto de vista del observador actuaban de forma conjunta para crear los valores de intensidad medidos en la imagen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Fue entonces cuando diversos investigadores, dentro de los cuales se destacó Julesz (1975), demostraron que los mecanismos de la visión estereoscópica son realizados en la retina en una etapa muy previa del proceso de visión, y que el mecanismo de visión humana tiene la posibilidad de interpretar imágenes en 3D usando solamente las informaciones sobre profundidad, distancia y textura.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Estos estudios lograron establecer las denominadas teorías de tipo modular, las cuales representaban el proceso de visión como la sucesión de transformaciones que a partir de la escena del mundo externo, produce una descripción útil al observador sin estar entorpecida por la información irrelevante. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La mayoría de los estudiosos del tema concuerdan en que a las técnicas asociadas al estudio de los sistemas de visión artificial debe considerarse como parte de la Inteligencia Artificial por cuanto modelan actividades del cerebro humano.&amp;lt;br&amp;gt;En los últimos años se han realizado un sin número de trabajos en el campo de la visión artificial. Institutos como el MIT (Massachusetts Institute of Technology), llevaron la delantera durante los años 70 y marcaron pautas en los estudios en estos temas. Uno de los investigadores más relevantes de este instituto resultó ser David Marr, el cual estableció una metodología modular tipo “Botton/Up”. Para lograr realizar el procesamiento de una imagen percibida, Marr planteó tres grandes bloques para el procesamiento de la información. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
#Cálculo del esbozo primitivo como estructura informacional que caracteriza los distintos rasgos básicos (bordes, líneas, arcos, ceros, manchas, etc) presentes en la imagen de intensidades (nivel 2D). &lt;br /&gt;
#Construcción de las superficies presentes en la imagen desde el punto de vista del observador, a partir de la informaciones suministradas por el esbozo primitivo y las informaciones tridimensionales proporcionadas por las estereoscopía, sombreado, reflectancia, iluminación, etc. &lt;br /&gt;
#Construcción del modelo que representa a los objetos en el espacio y permite catalogarlos y compararlos con información previamente almacenada (nivel 3D).&lt;br /&gt;
&lt;br /&gt;
Marr forjó las bases en el campo del estudio de los mecanismos de la visión humana y el análisis de imágenes digitales, sus principales hitos se basaron en realizar métodos para la descomposición de la información en niveles 2D, 3D y sus esquemas de representación de la información en cada uno de estos niveles.&amp;lt;br&amp;gt;Otros estudiosos se dedicaron a profundizar en estos estudios dentro de los que podemos mencionar a Nishihara el cual planteó en 1978 que la información acerca de la geometría y la reflectancia de las superficies visibles se codifica en la imagen de varias formas y puede ser decodificada por procesos casi independientes.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La comprensión de esta frase fue el comienzo que dio lugar a la aparición de múltiples teorías sobre los procesos de decodificación. Muchos de estos procesos de decodificación permanecen hoy en día como áreas activas de investigación. De entre los más importantes podemos citar: la estereoscopía, la derivación de la estructura a partir del movimiento aparente, la selectividad de dirección, el cálculo de la profundidad a partir del flujo óptico, el cálculo de la orientación de la superficie a partir de su textura, el cálculo de la forma a partir de la sombra, la estereoscopía fotométrica, etc. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Con la llegada de las primeras computadoras digitales en los años 50-60, se comienza a necesitar de disponer de técnicas para la transmisión y procesamiento de imágenes desde satélite, uno de los empujes dados a estas técnicas de trasmisión, realce y restauración de imágenes fueron realizados por el Jet Propulsion Laboratory (EEUU), encargado del procesamiento de las imágenes mandadas por los primeros satélites y por el National Institute of Health (EEUU) dedicado al estudio de imágenes de rayos X, microscopía óptica y electrónica. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
No cabe la menor duda que el MIT junto con la Universidad de Stanford se perfilan como los centros más sobresalientes en los estudios de visión artificial, dentro de sus trabajos más relevantes se pueden mencionar la visión aplicada a robótica bajo el proyecto Hand-Eye y el llamado proyecto UIS (Image Understanding System), este último proyecto marca el comienzo del uso de estas técnicas en aplicaciones de tipo militar. Por otra parte países como Japón desarrollaron el llamado proyecto PIPS (Pattern-Information Processing System), el cual impulsó el desarrollo del análisis de imágenes.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Los estudios realizados por los países de Europa no se quedaron detrás cabe destacar la investigación desarrollada, durante los años setenta, por los profesores G. Matheron y J. Serra de la École National Supérieure des Mines de Paris (Francia) el cual ofreció aportes a la geometría integral y el cálculo de probabilidades para la caracterización y medición de formas, esta metodología se denomina Morfología Matemática y ha tenido sus principales áreas de aplicación en los campos de la geología, la biología y la medicina. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
A partir de este momento se observar el comienzo de cierta especialización en las técnicas existentes. Así, comienzan a aparecer los conceptos de técnicas para el procesamiento de imágenes digitales como el conjunto de todas aquellas técnicas asociadas a la captura, codificación y representación de las imágenes que no introducen sobre las mismas ningún tipo de interpretación, y técnicas para el análisis de imágenes digitales, técnicas de visión por computadora o visión mediante robot como acepciones que se refieren a aquellas técnicas que tratan de extraer la información presente en la imagen con el fin de hacer una interpretación de las escena representada por dicha imagen. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sistema de Visión Humano  ==&lt;br /&gt;
&lt;br /&gt;
¿Porqué no realizar un modelado perfecto del sistema de visión humano e implementarlo en una computadora?&amp;lt;br&amp;gt;La respuesta no es sencilla, gran cantidad de estudios demuestran claramente que nuestro sistema visual lejos de ser perfecto contiene una serie de irregularidades que no deben ser modeladas para lograr un sistema artificial que supere al humano. No existe ninguna razón para modelar los errores de nuestro sistema.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Para realizar un bosquejo de la argumentación anterior realizaremos un estudio de nuestro sistema de visión y observaremos los puntos débiles y sus fortalezas.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Todo sistema de visión está compuesto por tres partes fundamentales: &lt;br /&gt;
&lt;br /&gt;
#Las señales que percibimos.&amp;amp;nbsp; &lt;br /&gt;
#El medio en que se transmiten. &lt;br /&gt;
#Los mecanismos de decodificación del sistema receptor y/o cerebro.&lt;br /&gt;
&lt;br /&gt;
Una imagen puede describirse como un mapa espacial que sobre una determinada información que nos ofrece algún tipo de sensor. Ejemplos de este tipo de mapas son nuestras percepciones de una determinada situación o escena a partir de nuestros sistemas sensoriales (vista, oído, tacto, gusto, y olfato). Para centrar aun más nuestro estudio nos preguntaremos sobre el significado real de lo que significa ver o adquirir información a través de un sistema sensorial de tipo visual. Si nos centramos en el modelo visual humano asociaremos el concepto de ver con el de percibir una señal luminosa con una intensidad mínima y en un rango de frecuencia espectral dado. Sin embargo hoy en día son bien conocidas las posibilidades de obtener imágenes a partir de sensores que trabajen en condiciones muy distintas de iluminación a las que es sensible el ojo humano, por ejemplo, el espectro infrarrojo, rayos X, etc. Así pues, la posibilidad de formar imágenes debemos asociarla al tipo de sensor usado y a las posibilidades de que dicho sensor sea capaz de captar y decodificar la información que le llega. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Una vez que tenemos conocimiento de la composición de la señal a analizar podemos pasar al estudio del sensor que debe captar la información. En el caso de nuestro sistema de visión, el ojo se perfila como nuestro sensor del espectro visible.&amp;amp;nbsp;El ojo es casi una esfera de unos 20mm de diámetro, formada por un conjunto de membranas denominadas cornea, esclera, coroide y retina. La cornea y la esclera, constituyen las envolturas externas anterior y posterior del ojo respectivamente. La capa coroidal además de alimentar el ojo a través de sus vasos sanguíneos, tiene la misión de absolver las luces extrañas que entran el ojo así como de amortiguar el efecto de dispersión de la luz dentro del globo ocular. El iris o diafragma esta situado en la parte anterior del coroide, y tiene como misión controlar la cantidad de luz que entra en el ojo. Para ello, la pupila o parte central del iris puede cambiar de tamaño en función de la luminosidad incidente desde 2mm a 8mm de diámetro. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Image:Ojo.JPG|frame|right|377x277px|Esquema descriptor del ojo humano]]&amp;amp;nbsp; &lt;br /&gt;
&lt;br /&gt;
La lente del ojo esta formada por capas concéntricas de células fibrosas y esta sujeta al coroide a través de fibras, esta compuesta principalmente por agua (60%-70%), grasa 6% y proteínas. En la lente se absorbe cerca del 8% del espectro de luz visible así como una gran proporción de luz infrarroja y ultravioleta. &amp;lt;br&amp;gt;La membrana más interna del ojo es la retina que cubre toda la pared interna del ojo. Cuando la luz llega al ojo la imagen que transporta se forma en la retina por la sensibilización de dos clases de receptores: los bastones y los conos. &amp;lt;br&amp;gt;El número de conos existentes en un ojo esta entre 6-7 millones y su situación dentro del ojo se concentra alrededor de un punto llamado fóvea. &lt;br /&gt;
&lt;br /&gt;
La misión de los conos dentro del ojo es doble. Por un lado son responsables de la detección del color y por otro ayudan a resolver los detalles finos de la imagen. &amp;lt;br&amp;gt;Cuando una persona quiere resolver detalles finos en una imagen intenta que esta se forme en su retina alrededor de la fóvea, consiguiendo por tanto, que los conos sean mayoritariamente los receptores de la luz. La visión a través de los conos se denomina visión fotocópica o de luz brillante. &amp;lt;br&amp;gt;Por otro lado, el número de bastones existentes en un ojo es muy superior al de conos y esta entre 75-150 millones. Los bastones se distribuyen sobre toda la retina y al igual que los conos tienen una doble misión. Por un lado son responsables de dar una impresión general del campo de visión y por otro son responsables de la sensibilidad a niveles bajos de iluminación. Los bastones no son sensibles al color. &lt;br /&gt;
&lt;br /&gt;
Un objeto que a la luz del día tiene colores vivos, observado a la luz de la luna aparece sin colores, esto es debido a que tan solo los bastones están estimulados. A la visión a través de bastones se le denomina visión escotópica o de luz tenue.&amp;lt;br&amp;gt;El ojo humano es capaz de adaptarse en un rango de valores de iluminación de aproximadamente&amp;amp;nbsp;10 órdenes de magnitud. El punto más importante a la hora de interpretar este enorme rango es el hecho de que el ojo no opera de forma simultánea sobre todo el rango si no que en cada caso y en función de la luminosidad medía existente se hace sensible a un rango alrededor de dicho valor medio. Este efecto de adaptación se denomina adaptación al brillo. Numerosos experimentos han mostrado que el brillo subjetivo percibido es una función logarítmica de la intensidad de luz incidente en el ojo. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
El sistema de visión humano como otras partes de la anatomía del cuerpo humano es fruto de la evolución. Como consecuencia de esto el sistema de visión humano responde a unos patrones mejor que otros, por otro lado puede llegar a conclusiones erradas al interpretar situaciones ambiguas por la existencia de ilusiones visuales, ambigüedades e inconsistencias.Las ambigüedades son muy frecuentes y se basan en que una figura puede tener más de una posible interpretación. Múltiples interpretaciones pueden coexistir o una puede dominar. &amp;lt;br&amp;gt;Los investigadores han demostrado que inferimos de nuestras imágenes en la retina más de lo que de verdad está soportado por la geometría y física de la formación de imágenes. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Helmhotz en su libro Handbook of Physiological Optics publicado a mediados del siglo pasado expresó que cada imagen es una imagen de algo sólo para aquel que conoce como leerla, y que está capacitado con la ayuda de la imagen a formar una idea de la cosa. &amp;lt;br&amp;gt;Esta afirmación nos muestra que el sistema visual humano no realiza inferencias precisas y exactas basadas en la física de la formación de imágenes en el ojo, sino que el sistema visual invoca reglas que se obtienen y están dirigidas por la experiencia previa del individuo y tal vez por la especie. &amp;lt;br&amp;gt;Como se pudo apreciar nuestro sistema de visión ha evolucionado y presenta sistemas de adaptación increíbles a los cambios de iluminación entre otras de sus fortalezas, sin embargo también presenta debilidades que no deben ser tomadas en cuenta a la hora de realizar un sistema que lo simule.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sistema de Visión Artificial [[Image:SistemaVisionArtificial.jpg|frame|right|393x237px|Componentes de un Sistema de Visión Artificial]]  ==&lt;br /&gt;
&lt;br /&gt;
La necesidad de ver artificialmente evoluciona a medida que el ser humano es capaz de estudiar su propio cuerpo y demostrar que cerca del 60% de la corteza cerebral del hombre se dedica a procesar la información visual.&amp;lt;br&amp;gt;Los sistemas de visión artificial han evolucionado poco a poco a medida que la tecnología ha evolucionado y ha permitido la creación de sensores, computadoras y algoritmos de procesamiento más potentes.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
De forma básica un sistema de visión artificial está conformado por varios subsistemas capaces de realizar dos funciones básicas:&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
#Captar la información de la escena real mediante la proyección en una imagen. &lt;br /&gt;
#Analizar las imágenes para extraer la información que contienen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Los sensores, la iluminación y las tarjetas digitalizadoras son los dispositivos más importantes en la captura de la información de las escenas reales; en cambio el mayor peso del análisis de las imágenes captadas se encuentra a nivel de software aunque en ocasiones se encuentran dispositivos que realizan la extracción de la información utilizando hardware especializado, un ejemplo de esto son las tarjetas digitalizadoras que contienen incorporadas funciones de procesamiento como es el caso de filtrado para detectar contornos construidas por la compañía [http://www.matrox.com Matrox]. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Sensores.  ===&lt;br /&gt;
&lt;br /&gt;
Existe gran diversidad de sensores a partir de los cuales se pueden obtener imágenes. Su principal clasificación es a partir de la naturaleza de la señal que conforman la imagen, dentro de ellos podemos mencionar, los sensores de Rayos X, Rayos Gamma, luz ultravioleta, infrarroja, etc. Por otra parte podemos mencionar los sensores basados en el principio del eco como es el caso de los radares y los equipos de ultrasonido.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La variedad de sensores utilizados en sistemas de visión artificial se ha expandido hasta dominios insospechados en este aspecto estos sistemas superan ampliamente al sistema de visión humano el cual sólo puede tomar información visual dentro del espectro visible. Sin embargo no cabe duda que los sensores más utilizados, en aplicaciones que requieran de este tipo de sistemas, son la cámaras ya sean estas fotográficas o de video.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Las cámaras son las encargadas de captar la información luminosa de la escena a analizar y convertirla en una señal, analógica o digital, para ser utilizada por los sistemas de procesamiento.&amp;lt;br&amp;gt;Existen varios tipos de cámaras digitales, las cuales se dividen en función de: &lt;br /&gt;
&lt;br /&gt;
*Modo de captar la información de la escena. Dentro de esta categoría se pueden mencionar las cámaras basadas en tecnología Vidicom, Orticom y CCD. &lt;br /&gt;
*Modo de exploración. Aquí se encuentran las cámaras de exploración de línea y área. &lt;br /&gt;
*Estado sólido y no sólido.&lt;br /&gt;
&lt;br /&gt;
=== Iluminación.  ===&lt;br /&gt;
&lt;br /&gt;
La iluminación de una escena es uno de los puntos sensibles en un sistema de visión. Las fuentes de luz se deben escoger en función de la aplicación que se desea realizar, una fuente mal escogida puede traer consigo un sin número de anormalidades difíciles de eliminar como son el caso de las sombras, las reflexiones y el bajo contraste. Es por ello que el conocimiento del tipo de iluminación a utilizar se debe tener muy en cuenta.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Iluminación tipo LED  ====&lt;br /&gt;
&lt;br /&gt;
La luz emitida por este tipo de fuente presenta como ventaja fundamental que tiene naturaleza monocromática, estos dispositivos presentan una larga vida útil, alto rendimiento y requieren de una fuente de alimentación de muy baja potencia además presentan un costo excesivamente bajo. Sus principales desventajas son que emiten poca intensidad y que en ocasiones dos LEDs similares presentan diferencias en la longitud de onda de la luz que emiten.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Flash  ====&lt;br /&gt;
&lt;br /&gt;
Normalmente se utilizan para captar imágenes en movimiento, son fuentes de luz de gran intensidad luminosa que se ve poco afectada por la luz ambiente. Su principal desventaja es la fuente de alimentación las cuales deben estar bien sincronizadas con le sistema de captura de la imagen, presentan gran disipación de calor y pierden luminosidad con el tiempo. A su favor podemos decir que son fuentes extremadamente rápidas.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Láser  ====&lt;br /&gt;
&lt;br /&gt;
Muchos hemos escuchado hablar de lo extremadamente direccional de la luz emitida por este tipo de fuente además presenta la característica de ser monocromática. Se postula como una fuente de luz casi perfecta aunque su inconveniente principal es su costo y la necesidad de colocarle dispositivos auxiliares para realizar barridos de la zona de interés.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Lámpara Incandescente  ====&lt;br /&gt;
&lt;br /&gt;
Su iluminación es bastante homogénea aunque presenta las dificultades de ser consumidoras y disipadoras de calor. No presentan tiempos de vida largo aunque si son muy baratas.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Lámparas Fluorescentes  ====&lt;br /&gt;
&lt;br /&gt;
Su iluminación es muy clara aunque presentan tiempos de vida cortos y las pérdidas de iluminación con el tiempo son acentuadas. El costo de este tipo de fuente es bajo.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Tarjetas digitalizadoras.  ===&lt;br /&gt;
&lt;br /&gt;
La función de estas tarjetas es captar la señal que ofrece el sensor de imagen y convertirla a formato digital y entregarla al dispositivo inteligente, llámese PC o PLC, para su posterior análisis. Una muestra de este tipo de dispositivo se observa en la siguiente figura&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Las funciones principales que realiza este tipo de dispositivo son: &lt;br /&gt;
&lt;br /&gt;
#Recoger la señal analógica procedente de la cámara. &lt;br /&gt;
#Convertir la señal analógica en digital. &lt;br /&gt;
#Almacenar la señal digital en memoria.&lt;br /&gt;
&lt;br /&gt;
Las tarjetas comerciales incluyen: Memoria propia, funciones de procesado, conversores digital-analógico y analógico-digital e incluso presentación en pantalla de la imagen. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Análisis de Imágenes Digitales.  ===&lt;br /&gt;
&lt;br /&gt;
Una vez captada la imagen por el sensor y transmitida al dispositivo donde será procesada, el paso siguiente es realizar la extracción de la información explícita que encierra dicha imagen, por ejemplo posición de los objetos, forma, textura etc.&amp;lt;br&amp;gt;&lt;br /&gt;
Las técnicas utilizadas para realizar la extracción de esta información se dividen en cuatro grupos fundamentales: &lt;br /&gt;
&lt;br /&gt;
#Preprocesado. &lt;br /&gt;
#Segmentación. &lt;br /&gt;
#Descripción. &lt;br /&gt;
#Reconocimiento.&amp;amp;nbsp;&lt;br /&gt;
&lt;br /&gt;
==== Preprocesado  ====&lt;br /&gt;
&lt;br /&gt;
Este grupo de funciones se especializa en realizarle mejoras a la imagen captada, es decir resalta un sin número de características que conllevan a elevar la calidad de la imagen a la hora de ser analizada. Dentro de las funciones más comunes se encuentra la eliminación del ruido, el cambio de contraste y brillo, las transformaciones geométricas dentro de otras.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Segmentación [[Image:SegmentacionInmagenes.jpg|frame|right]]  ====&lt;br /&gt;
&lt;br /&gt;
La clasificación de la escena en sus partes u objetos es a lo que se le llama segmentación de la imagen. Estas técnicas se basan en encontrar dónde se encuentran grupos de pixels que conformen un ente a clasificar (objeto), para ello estas técnicas se basan en los principios de discontinuidad y similitud. La siguiente figura nos visualiza una muestra metalográfica en la cual son detectados todos los granos de la misma y son etiquetados con diferentes colores indicando su fronteras.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Descripción  ====&lt;br /&gt;
&lt;br /&gt;
Estas técnicas se basan en extraer, del ente a estudiar, las características que lo diferencian de los demás. Para realizar esta extracción de características es necesario realizar un estudio del objeto a analizar y extraer con cuidado las características invariantes que posea. Éstas  deben ser, generalmente, independientes a rotaciones, escalamientos corrimientos de dicho objeto. Dentro de estas características podemos mencionar, área perímetro, circularidad, patrones de texturas, rasgos de formas, etc.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Reconocimiento&amp;lt;br&amp;gt; ====&lt;br /&gt;
&lt;br /&gt;
Una vez obtenidas las características que describen el objeto a estudiar, se pasa al reconocimiento del mismo, esto no es más que la clasificación, utilizando cualquier técnica conocida, llámese inteligencia artificial, búsquedas deductivas en base de datos, comparación con patrones etc.&amp;lt;br&amp;gt;&lt;br /&gt;
Dentro de las técnicas más utilizadas se encuentra la utilización de redes neuronales artificiales, algoritmos genéticos y métodos estadísticos avanzados.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Grupos de Investigación en Cuba&amp;lt;br&amp;gt; ==&lt;br /&gt;
&lt;br /&gt;
*Centro de Estudios de Electrónica y Tecnologías de la Información, CEETI. Facultad de Ingeniería Eléctrica, Universidad Central “Marta Abreu” de Las Villas&amp;lt;br&amp;gt;&lt;br /&gt;
*[http://www.cenatav.co.cu CENATAV - Centro de Aplicaciones de Tecnologías de Avanzada]&amp;lt;br&amp;gt;&lt;br /&gt;
*[http://www.cedai.com.cu Empresa de Automatización Integral, CEDAI]&amp;lt;br&amp;gt;&lt;br /&gt;
*Grupo de Automatización, Robótica Persepción (GARP), Facultad de Ingeniería Eléctrica, Universidad Central “Marta Abreu” de Las Villas&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Fuentes  ==&lt;br /&gt;
&lt;br /&gt;
[http://www.ph.tn.tudelft.nl/Courses/FIP/noframes/fip-Contents.html Delft University, Image Processing Fundamentals, Internet Tutorial]&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[http://homepages.inf.ed.ac.uk/rbf/CVonline/ On-Line Compendium of Computer Vision]&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Category:Sistemas_Automatizados]]&lt;/div&gt;</summary>
		<author><name>Moises cedai</name></author>
		
	</entry>
	<entry>
		<id>https://www.ecured.cu/index.php?title=Visi%C3%B3n_Artificial&amp;diff=28246</id>
		<title>Visión Artificial</title>
		<link rel="alternate" type="text/html" href="https://www.ecured.cu/index.php?title=Visi%C3%B3n_Artificial&amp;diff=28246"/>
		<updated>2010-03-09T16:40:27Z</updated>

		<summary type="html">&lt;p&gt;Moises cedai: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Desarrollo}} &lt;br /&gt;
&lt;br /&gt;
'''Visión Artificial''' &lt;br /&gt;
&lt;br /&gt;
También conocida como ''Visión por Computadora.'' &lt;br /&gt;
&lt;br /&gt;
Se considera como el conjunto de todas aquellas técnicas y modelos que nos permitan la adquisición, procesamiento, análisis y explicación de cualquier tipo de información espacial del mundo real obtenida a través de imágenes digitales. &lt;br /&gt;
&lt;br /&gt;
== Otras Definiciones  ==&lt;br /&gt;
&lt;br /&gt;
''Visión Artificial es la ciencia que estudia, utilizando computadoras digitales, los procesos de obtención, caracterización, interpretación de la información procedentes de imágenes tomadas de un mundo tridimensional.'' &lt;br /&gt;
&lt;br /&gt;
''La Visión es un proceso de tratamiento de información que permite obtener una descripción simbólica del mundo real a partir de imágenes.'' &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Antecedentes  ==&lt;br /&gt;
&lt;br /&gt;
Dentro de los hitos más relevantes, en el modelado de la percepción visual, podemos mencionar los estudios de Kepler sobre el análisis geométrico de la formación de la imagen en el ojo, las apreciaciones de Newton sobre visión en color, Helmhotz (1910) sobre óptica fisiológica y Wertheimer (1912) sobre el movimiento aparente de agrupaciones de puntos o campos. Estos trabajos, unidos a otros, han establecido las bases de las actuales teorías de percepción visual. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Muchos concuerdan en que el primer gran paso se logró a principio del siglo XX con la aparición de la escuela de psicología de la Gelstat basada, principalmente, en los trabajos de Wertheimer. Esta escuela tuvo, dentro de sus resultados más relevantes, el establecer criterios que planteaban que características como la similaridad, homogeneidad, cercanía, etc, eran suficientes para tratar de explicar las propiedades de los mecanismos psicofísicos de la visión humana. Pero, esta aproximación con criterios tan globales se perdió años más tarde al no poder dar respuesta a nuevos interrogantes dentro del proceso de percepción visual&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Alrededor de los años 50, la investigación se orientó en la búsqueda de explicaciones al más bajo nivel celular, lo que originó una nueva corriente de ideas y teorías que con base en las potencialidades de las neuronas como células individuales. Se intentó explicar los mecanismos y propiedades de la visión humana, Hubel y Weisel (1962, 1968) y Barlow (1972). Sin embargo, esta aproximación tampoco pudo dar respuesta a los problemas más profundos de como nuestro mecanismo visual codifica, representa y reconoce distintos tipos de informaciones espaciales.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dada la enorme complejidad mostrada por el sistema de visión humana y como consecuencia del lento avance de las teorías y algoritmos que explicaban su funcionamiento y propiedades se intentó abordar estos problemas de formas más directas a partir de tres enfoques distintos. El primero se basó en el desarrollo de técnicas empíricas basadas en criterios de tipo matemático que aproximaban estos problemas de estimación de bordes y líneas usando distintos criterios. Dentro de este Grupo se encontraba Azriel Rosenfeld. Estas aproximaciones crearon algunas ideas interesantes como el uso simultáneo de operadores de distinto tamaño, pero tuvo el gran inconveniente de no poder proponer métodos para la evaluación de los distintos algoritmos.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
El segundo enfoque se basó en profundizar en el problema reduciendo su alcance a un mundo de bloques blancos iluminados sobre fondo negro. Los bloques podían tener cualquier forma, siempre que todas sus superficies fueran planas y todos sus bordes rectos. Este modelo funcionó perfectamente en ciertos trabajos como los realizados por Waltz (1975) y Mackworth (1973); ellos resolvieron interpretaciones de dibujos lineales a partir de estudios de imágenes de prismas sólidos. De hecho, la simplificación impuesta en este modelo se había hecho con el razonamiento de que presentado un conocimiento profundo del problema en un mundo simplificado permitiría más tarde extrapolar dichos conocimientos a mundos más complejos.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
En años más recientes se enfrascaron en idear un modelo más completo de la percepción visual que eliminara las limitaciones de los anteriores, esta especialización trajo consigo el tercer enfoque. Dentro de los trabajos más relevantes podemos mencionar los realizados por Horn (1975, 1977) sobre la formación de la imagen. En ellos Horn establece modelos de cálculo que expresan la formación de la imagen a través de ecuaciones diferenciales que relacionan los valores de intensidad de la imagen con la geometría de la superficie tras estudiar con gran detalle el modo en que la iluminación, la geometría, la reflectancia de la superficie y el punto de vista del observador actuaban de forma conjunta para crear los valores de intensidad medidos en la imagen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Fue entonces cuando diversos investigadores, dentro de los cuales se destacó Julesz (1975), demostraron que los mecanismos de la visión estereoscópica son realizados en la retina en una etapa muy previa del proceso de visión, y que el mecanismo de visión humana tiene la posibilidad de interpretar imágenes en 3D usando solamente las informaciones sobre profundidad, distancia y textura.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Estos estudios lograron establecer las denominadas teorías de tipo modular, las cuales representaban el proceso de visión como la sucesión de transformaciones que a partir de la escena del mundo externo, produce una descripción útil al observador sin estar entorpecida por la información irrelevante. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La mayoría de los estudiosos del tema concuerdan en que a las técnicas asociadas al estudio de los sistemas de visión artificial debe considerarse como parte de la Inteligencia Artificial por cuanto modelan actividades del cerebro humano.&amp;lt;br&amp;gt;En los últimos años se han realizado un sin número de trabajos en el campo de la visión artificial. Institutos como el MIT (Massachusetts Institute of Technology), llevaron la delantera durante los años 70 y marcaron pautas en los estudios en estos temas. Uno de los investigadores más relevantes de este instituto resultó ser David Marr, el cual estableció una metodología modular tipo “Botton/Up”. Para lograr realizar el procesamiento de una imagen percibida, Marr planteó tres grandes bloques para el procesamiento de la información. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
#Cálculo del esbozo primitivo como estructura informacional que caracteriza los distintos rasgos básicos (bordes, líneas, arcos, ceros, manchas, etc) presentes en la imagen de intensidades (nivel 2D). &lt;br /&gt;
#Construcción de las superficies presentes en la imagen desde el punto de vista del observador, a partir de la informaciones suministradas por el esbozo primitivo y las informaciones tridimensionales proporcionadas por las estereoscopía, sombreado, reflectancia, iluminación, etc. &lt;br /&gt;
#Construcción del modelo que representa a los objetos en el espacio y permite catalogarlos y compararlos con información previamente almacenada (nivel 3D).&lt;br /&gt;
&lt;br /&gt;
Marr forjó las bases en el campo del estudio de los mecanismos de la visión humana y el análisis de imágenes digitales, sus principales hitos se basaron en realizar métodos para la descomposición de la información en niveles 2D, 3D y sus esquemas de representación de la información en cada uno de estos niveles.&amp;lt;br&amp;gt;Otros estudiosos se dedicaron a profundizar en estos estudios dentro de los que podemos mencionar a Nishihara el cual planteó en 1978 que la información acerca de la geometría y la reflectancia de las superficies visibles se codifica en la imagen de varias formas y puede ser decodificada por procesos casi independientes.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La comprensión de esta frase fue el comienzo que dio lugar a la aparición de múltiples teorías sobre los procesos de decodificación. Muchos de estos procesos de decodificación permanecen hoy en día como áreas activas de investigación. De entre los más importantes podemos citar: la estereoscopía, la derivación de la estructura a partir del movimiento aparente, la selectividad de dirección, el cálculo de la profundidad a partir del flujo óptico, el cálculo de la orientación de la superficie a partir de su textura, el cálculo de la forma a partir de la sombra, la estereoscopía fotométrica, etc. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Con la llegada de las primeras computadoras digitales en los años 50-60, se comienza a necesitar de disponer de técnicas para la transmisión y procesamiento de imágenes desde satélite, uno de los empujes dados a estas técnicas de trasmisión, realce y restauración de imágenes fueron realizados por el Jet Propulsion Laboratory (EEUU), encargado del procesamiento de las imágenes mandadas por los primeros satélites y por el National Institute of Health (EEUU) dedicado al estudio de imágenes de rayos X, microscopía óptica y electrónica. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
No cabe la menor duda que el MIT junto con la Universidad de Stanford se perfilan como los centros más sobresalientes en los estudios de visión artificial, dentro de sus trabajos más relevantes se pueden mencionar la visión aplicada a robótica bajo el proyecto Hand-Eye y el llamado proyecto UIS (Image Understanding System), este último proyecto marca el comienzo del uso de estas técnicas en aplicaciones de tipo militar. Por otra parte países como Japón desarrollaron el llamado proyecto PIPS (Pattern-Information Processing System), el cual impulsó el desarrollo del análisis de imágenes.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Los estudios realizados por los países de Europa no se quedaron detrás cabe destacar la investigación desarrollada, durante los años setenta, por los profesores G. Matheron y J. Serra de la École National Supérieure des Mines de Paris (Francia) el cual ofreció aportes a la geometría integral y el cálculo de probabilidades para la caracterización y medición de formas, esta metodología se denomina Morfología Matemática y ha tenido sus principales áreas de aplicación en los campos de la geología, la biología y la medicina. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
A partir de este momento se observar el comienzo de cierta especialización en las técnicas existentes. Así, comienzan a aparecer los conceptos de técnicas para el procesamiento de imágenes digitales como el conjunto de todas aquellas técnicas asociadas a la captura, codificación y representación de las imágenes que no introducen sobre las mismas ningún tipo de interpretación, y técnicas para el análisis de imágenes digitales, técnicas de visión por computadora o visión mediante robot como acepciones que se refieren a aquellas técnicas que tratan de extraer la información presente en la imagen con el fin de hacer una interpretación de las escena representada por dicha imagen. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sistema de Visión Humano  ==&lt;br /&gt;
&lt;br /&gt;
¿Porqué no realizar un modelado perfecto del sistema de visión humano e implementarlo en una computadora?&amp;lt;br&amp;gt;La respuesta no es sencilla, gran cantidad de estudios demuestran claramente que nuestro sistema visual lejos de ser perfecto contiene una serie de irregularidades que no deben ser modeladas para lograr un sistema artificial que supere al humano. No existe ninguna razón para modelar los errores de nuestro sistema.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Para realizar un bosquejo de la argumentación anterior realizaremos un estudio de nuestro sistema de visión y observaremos los puntos débiles y sus fortalezas.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Todo sistema de visión está compuesto por tres partes fundamentales: &lt;br /&gt;
&lt;br /&gt;
#Las señales que percibimos.&amp;amp;nbsp; &lt;br /&gt;
#El medio en que se transmiten. &lt;br /&gt;
#Los mecanismos de decodificación del sistema receptor y/o cerebro.&lt;br /&gt;
&lt;br /&gt;
Una imagen puede describirse como un mapa espacial que sobre una determinada información que nos ofrece algún tipo de sensor. Ejemplos de este tipo de mapas son nuestras percepciones de una determinada situación o escena a partir de nuestros sistemas sensoriales (vista, oído, tacto, gusto, y olfato). Para centrar aun más nuestro estudio nos preguntaremos sobre el significado real de lo que significa ver o adquirir información a través de un sistema sensorial de tipo visual. Si nos centramos en el modelo visual humano asociaremos el concepto de ver con el de percibir una señal luminosa con una intensidad mínima y en un rango de frecuencia espectral dado. Sin embargo hoy en día son bien conocidas las posibilidades de obtener imágenes a partir de sensores que trabajen en condiciones muy distintas de iluminación a las que es sensible el ojo humano, por ejemplo, el espectro infrarrojo, rayos X, etc. Así pues, la posibilidad de formar imágenes debemos asociarla al tipo de sensor usado y a las posibilidades de que dicho sensor sea capaz de captar y decodificar la información que le llega. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Una vez que tenemos conocimiento de la composición de la señal a analizar podemos pasar al estudio del sensor que debe captar la información. En el caso de nuestro sistema de visión, el ojo se perfila como nuestro sensor del espectro visible.&amp;amp;nbsp;El ojo es casi una esfera de unos 20mm de diámetro, formada por un conjunto de membranas denominadas cornea, esclera, coroide y retina. La cornea y la esclera, constituyen las envolturas externas anterior y posterior del ojo respectivamente. La capa coroidal además de alimentar el ojo a través de sus vasos sanguíneos, tiene la misión de absolver las luces extrañas que entran el ojo así como de amortiguar el efecto de dispersión de la luz dentro del globo ocular. El iris o diafragma esta situado en la parte anterior del coroide, y tiene como misión controlar la cantidad de luz que entra en el ojo. Para ello, la pupila o parte central del iris puede cambiar de tamaño en función de la luminosidad incidente desde 2mm a 8mm de diámetro. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Image:Ojo.JPG|frame|right|377x277px|Esquema descriptor del ojo humano]]&amp;amp;nbsp; &lt;br /&gt;
&lt;br /&gt;
La lente del ojo esta formada por capas concéntricas de células fibrosas y esta sujeta al coroide a través de fibras, esta compuesta principalmente por agua (60%-70%), grasa 6% y proteínas. En la lente se absorbe cerca del 8% del espectro de luz visible así como una gran proporción de luz infrarroja y ultravioleta. &amp;lt;br&amp;gt;La membrana más interna del ojo es la retina que cubre toda la pared interna del ojo. Cuando la luz llega al ojo la imagen que transporta se forma en la retina por la sensibilización de dos clases de receptores: los bastones y los conos. &amp;lt;br&amp;gt;El número de conos existentes en un ojo esta entre 6-7 millones y su situación dentro del ojo se concentra alrededor de un punto llamado fóvea. &lt;br /&gt;
&lt;br /&gt;
La misión de los conos dentro del ojo es doble. Por un lado son responsables de la detección del color y por otro ayudan a resolver los detalles finos de la imagen. &amp;lt;br&amp;gt;Cuando una persona quiere resolver detalles finos en una imagen intenta que esta se forme en su retina alrededor de la fóvea, consiguiendo por tanto, que los conos sean mayoritariamente los receptores de la luz. La visión a través de los conos se denomina visión fotocópica o de luz brillante. &amp;lt;br&amp;gt;Por otro lado, el número de bastones existentes en un ojo es muy superior al de conos y esta entre 75-150 millones. Los bastones se distribuyen sobre toda la retina y al igual que los conos tienen una doble misión. Por un lado son responsables de dar una impresión general del campo de visión y por otro son responsables de la sensibilidad a niveles bajos de iluminación. Los bastones no son sensibles al color. &lt;br /&gt;
&lt;br /&gt;
Un objeto que a la luz del día tiene colores vivos, observado a la luz de la luna aparece sin colores, esto es debido a que tan solo los bastones están estimulados. A la visión a través de bastones se le denomina visión escotópica o de luz tenue.&amp;lt;br&amp;gt;El ojo humano es capaz de adaptarse en un rango de valores de iluminación de aproximadamente&amp;amp;nbsp;10 órdenes de magnitud. El punto más importante a la hora de interpretar este enorme rango es el hecho de que el ojo no opera de forma simultánea sobre todo el rango si no que en cada caso y en función de la luminosidad medía existente se hace sensible a un rango alrededor de dicho valor medio. Este efecto de adaptación se denomina adaptación al brillo. Numerosos experimentos han mostrado que el brillo subjetivo percibido es una función logarítmica de la intensidad de luz incidente en el ojo. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
El sistema de visión humano como otras partes de la anatomía del cuerpo humano es fruto de la evolución. Como consecuencia de esto el sistema de visión humano responde a unos patrones mejor que otros, por otro lado puede llegar a conclusiones erradas al interpretar situaciones ambiguas por la existencia de ilusiones visuales, ambigüedades e inconsistencias.Las ambigüedades son muy frecuentes y se basan en que una figura puede tener más de una posible interpretación. Múltiples interpretaciones pueden coexistir o una puede dominar. &amp;lt;br&amp;gt;Los investigadores han demostrado que inferimos de nuestras imágenes en la retina más de lo que de verdad está soportado por la geometría y física de la formación de imágenes. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Helmhotz en su libro Handbook of Physiological Optics publicado a mediados del siglo pasado expresó que cada imagen es una imagen de algo sólo para aquel que conoce como leerla, y que está capacitado con la ayuda de la imagen a formar una idea de la cosa. &amp;lt;br&amp;gt;Esta afirmación nos muestra que el sistema visual humano no realiza inferencias precisas y exactas basadas en la física de la formación de imágenes en el ojo, sino que el sistema visual invoca reglas que se obtienen y están dirigidas por la experiencia previa del individuo y tal vez por la especie. &amp;lt;br&amp;gt;Como se pudo apreciar nuestro sistema de visión ha evolucionado y presenta sistemas de adaptación increíbles a los cambios de iluminación entre otras de sus fortalezas, sin embargo también presenta debilidades que no deben ser tomadas en cuenta a la hora de realizar un sistema que lo simule.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sistema de Visión Artificial [[Image:SistemaVisionArtificial.jpg|frame|right|393x237px|Componentes de un Sistema de Visión Artificial]]  ==&lt;br /&gt;
&lt;br /&gt;
La necesidad de ver artificialmente evoluciona a medida que el ser humano es capaz de estudiar su propio cuerpo y demostrar que cerca del 60% de la corteza cerebral del hombre se dedica a procesar la información visual.&amp;lt;br&amp;gt;Los sistemas de visión artificial han evolucionado poco a poco a medida que la tecnología ha evolucionado y ha permitido la creación de sensores, computadoras y algoritmos de procesamiento más potentes.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
De forma básica un sistema de visión artificial está conformado por varios subsistemas capaces de realizar dos funciones básicas:&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
#Captar la información de la escena real mediante la proyección en una imagen. &lt;br /&gt;
#Analizar las imágenes para extraer la información que contienen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Los sensores, la iluminación y las tarjetas digitalizadoras son los dispositivos más importantes en la captura de la información de las escenas reales; en cambio el mayor peso del análisis de las imágenes captadas se encuentra a nivel de software aunque en ocasiones se encuentran dispositivos que realizan la extracción de la información utilizando hardware especializado, un ejemplo de esto son las tarjetas digitalizadoras que contienen incorporadas funciones de procesamiento como es el caso de filtrado para detectar contornos construidas por la compañía [http://www.matrox.com Matrox]. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Sensores.  ===&lt;br /&gt;
&lt;br /&gt;
Existe gran diversidad de sensores a partir de los cuales se pueden obtener imágenes. Su principal clasificación es a partir de la naturaleza de la señal que conforman la imagen, dentro de ellos podemos mencionar, los sensores de Rayos X, Rayos Gamma, luz ultravioleta, infrarroja, etc. Por otra parte podemos mencionar los sensores basados en el principio del eco como es el caso de los radares y los equipos de ultrasonido.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La variedad de sensores utilizados en sistemas de visión artificial se ha expandido hasta dominios insospechados en este aspecto estos sistemas superan ampliamente al sistema de visión humano el cual sólo puede tomar información visual dentro del espectro visible. Sin embargo no cabe duda que los sensores más utilizados, en aplicaciones que requieran de este tipo de sistemas, son la cámaras ya sean estas fotográficas o de video.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Las cámaras son las encargadas de captar la información luminosa de la escena a analizar y convertirla en una señal, analógica o digital, para ser utilizada por los sistemas de procesamiento.&amp;lt;br&amp;gt;Existen varios tipos de cámaras digitales, las cuales se dividen en función de: &lt;br /&gt;
&lt;br /&gt;
*Modo de captar la información de la escena. Dentro de esta categoría se pueden mencionar las cámaras basadas en tecnología Vidicom, Orticom y CCD. &lt;br /&gt;
*Modo de exploración. Aquí se encuentran las cámaras de exploración de línea y área. &lt;br /&gt;
*Estado sólido y no sólido.&lt;br /&gt;
&lt;br /&gt;
=== Iluminación.  ===&lt;br /&gt;
&lt;br /&gt;
La iluminación de una escena es uno de los puntos sensibles en un sistema de visión. Las fuentes de luz se deben escoger en función de la aplicación que se desea realizar, una fuente mal escogida puede traer consigo un sin número de anormalidades difíciles de eliminar como son el caso de las sombras, las reflexiones y el bajo contraste. Es por ello que el conocimiento del tipo de iluminación a utilizar se debe tener muy en cuenta.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Iluminación tipo LED  ====&lt;br /&gt;
&lt;br /&gt;
La luz emitida por este tipo de fuente presenta como ventaja fundamental que tiene naturaleza monocromática, estos dispositivos presentan una larga vida útil, alto rendimiento y requieren de una fuente de alimentación de muy baja potencia además presentan un costo excesivamente bajo. Sus principales desventajas son que emiten poca intensidad y que en ocasiones dos LEDs similares presentan diferencias en la longitud de onda de la luz que emiten.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Flash  ====&lt;br /&gt;
&lt;br /&gt;
Normalmente se utilizan para captar imágenes en movimiento, son fuentes de luz de gran intensidad luminosa que se ve poco afectada por la luz ambiente. Su principal desventaja es la fuente de alimentación las cuales deben estar bien sincronizadas con le sistema de captura de la imagen, presentan gran disipación de calor y pierden luminosidad con el tiempo. A su favor podemos decir que son fuentes extremadamente rápidas.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Láser  ====&lt;br /&gt;
&lt;br /&gt;
Muchos hemos escuchado hablar de lo extremadamente direccional de la luz emitida por este tipo de fuente además presenta la característica de ser monocromática. Se postula como una fuente de luz casi perfecta aunque su inconveniente principal es su costo y la necesidad de colocarle dispositivos auxiliares para realizar barridos de la zona de interés.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Lámpara Incandescente  ====&lt;br /&gt;
&lt;br /&gt;
Su iluminación es bastante homogénea aunque presenta las dificultades de ser consumidoras y disipadoras de calor. No presentan tiempos de vida largo aunque si son muy baratas.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Lámparas Fluorescentes  ====&lt;br /&gt;
&lt;br /&gt;
Su iluminación es muy clara aunque presentan tiempos de vida cortos y las pérdidas de iluminación con el tiempo son acentuadas. El costo de este tipo de fuente es bajo.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Tarjetas digitalizadoras.  ===&lt;br /&gt;
&lt;br /&gt;
La función de estas tarjetas es captar la señal que ofrece el sensor de imagen y convertirla a formato digital y entregarla al dispositivo inteligente, llámese PC o PLC, para su posterior análisis. Una muestra de este tipo de dispositivo se observa en la siguiente figura&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Las funciones principales que realiza este tipo de dispositivo son: &lt;br /&gt;
&lt;br /&gt;
#Recoger la señal analógica procedente de la cámara. &lt;br /&gt;
#Convertir la señal analógica en digital. &lt;br /&gt;
#Almacenar la señal digital en memoria.&lt;br /&gt;
&lt;br /&gt;
Las tarjetas comerciales incluyen: Memoria propia, funciones de procesado, conversores digital-analógico y analógico-digital e incluso presentación en pantalla de la imagen. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== &amp;amp;nbsp;Análisis de Imágenes Digitales.  ===&lt;br /&gt;
&lt;br /&gt;
Una vez captada la imagen por el sensor y transmitida al dispositivo donde será procesada, el paso siguiente es realizar la extracción de la información explícita que encierra dicha imagen, por ejemplo posición de los objetos, forma, textura etc.&amp;lt;br&amp;gt;&lt;br /&gt;
Las técnicas utilizadas para realizar la extracción de esta información se dividen en cuatro grupos fundamentales: &lt;br /&gt;
&lt;br /&gt;
#Preprocesado. &lt;br /&gt;
#Segmentación. &lt;br /&gt;
#Descripción. &lt;br /&gt;
#Reconocimiento.&amp;amp;nbsp;&lt;br /&gt;
&lt;br /&gt;
==== Preprocesado  ====&lt;br /&gt;
&lt;br /&gt;
Este grupo de funciones se especializa en realizarle mejoras a la imagen captada, es decir resalta un sin número de características que conllevan a elevar la calidad de la imagen a la hora de ser analizada. Dentro de las funciones más comunes se encuentra la eliminación del ruido, el cambio de contraste y brillo, las transformaciones geométricas dentro de otras.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Segmentación [[Image:SegmentacionInmagenes.jpg|frame|right]]  ====&lt;br /&gt;
&lt;br /&gt;
La clasificación de la escena en sus partes u objetos es a lo que se le llama segmentación de la imagen. Estas técnicas se basan en encontrar dónde se encuentran grupos de pixels que conformen un ente a clasificar (objeto), para ello estas técnicas se basan en los principios de discontinuidad y similitud. La siguiente figura nos visualiza una muestra metalográfica en la cual son detectados todos los granos de la misma y son etiquetados con diferentes colores indicando su fronteras.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Descripción  ====&lt;br /&gt;
&lt;br /&gt;
Estas técnicas se basan en extraer, del ente a estudiar, las características que lo diferencian de los demás. Para realizar esta extracción de características es necesario realizar un estudio del objeto a analizar y extraer con cuidado las características invariantes que posea. Éstas  deben ser, generalmente, independientes a rotaciones, escalamientos corrimientos de dicho objeto. Dentro de estas características podemos mencionar, área perímetro, circularidad, patrones de texturas, rasgos de formas, etc.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Reconocimiento&amp;lt;br&amp;gt; ====&lt;br /&gt;
&lt;br /&gt;
Una vez obtenidas las características que describen el objeto a estudiar, se pasa al reconocimiento del mismo, esto no es más que la clasificación, utilizando cualquier técnica conocida, llámese inteligencia artificial, búsquedas deductivas en base de datos, comparación con patrones etc.&amp;lt;br&amp;gt;&lt;br /&gt;
Dentro de las técnicas más utilizadas se encuentra la utilización de redes neuronales artificiales, algoritmos genéticos y métodos estadísticos avanzados.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Grupos de Investigación en Cuba&amp;lt;br&amp;gt; ==&lt;br /&gt;
&lt;br /&gt;
*Centro de Estudios de Electrónica y Tecnologías de la Información, CEETI. Facultad de Ingeniería Eléctrica, Universidad Central “Marta Abreu” de Las Villas&amp;lt;br&amp;gt;&lt;br /&gt;
*[http://www.cenatav.co.cu CENATAV - Centro de Aplicaciones de Tecnologías de Avanzada]&amp;lt;br&amp;gt;&lt;br /&gt;
*[http://www.cedai.com.cu Empresa de Automatización Integral, CEDAI]&amp;lt;br&amp;gt;&lt;br /&gt;
*Grupo de Automatización, Robótica Persepción (GARP), Facultad de Ingeniería Eléctrica, Universidad Central “Marta Abreu” de Las Villas&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Fuentes  ==&lt;br /&gt;
&lt;br /&gt;
[http://www.ph.tn.tudelft.nl/Courses/FIP/noframes/fip-Contents.html Delft University, Image Processing Fundamentals, Internet Tutorial]&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[http://bucanero.ugr.es/wwwcurso/ccordoba/ccordoba.html Fundamentos del tratamiento de imágenes: Visión por Computador, Pérez. N.]&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Category:Sistemas_Automatizados]]&lt;/div&gt;</summary>
		<author><name>Moises cedai</name></author>
		
	</entry>
	<entry>
		<id>https://www.ecured.cu/index.php?title=Visi%C3%B3n_Artificial&amp;diff=28175</id>
		<title>Visión Artificial</title>
		<link rel="alternate" type="text/html" href="https://www.ecured.cu/index.php?title=Visi%C3%B3n_Artificial&amp;diff=28175"/>
		<updated>2010-03-09T15:31:26Z</updated>

		<summary type="html">&lt;p&gt;Moises cedai: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Desarrollo}} &lt;br /&gt;
&lt;br /&gt;
'''Visión Artificial''' &lt;br /&gt;
&lt;br /&gt;
También conocida como ''Visión por Computadora.'' &lt;br /&gt;
&lt;br /&gt;
Se considera como el conjunto de todas aquellas técnicas y modelos que nos permitan la adquisición, procesamiento, análisis y explicación de cualquier tipo de información espacial del mundo real obtenida a través de imágenes digitales. &lt;br /&gt;
&lt;br /&gt;
== Otras Definiciones  ==&lt;br /&gt;
&lt;br /&gt;
''Visión Artificial es la ciencia que estudia, utilizando computadoras digitales, los procesos de obtención, caracterización, interpretación de la información procedentes de imágenes tomadas de un mundo tridimensional.'' &lt;br /&gt;
&lt;br /&gt;
''La Visión es un proceso de tratamiento de información que permite obtener una descripción simbólica del mundo real a partir de imágenes.'' &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Antecedentes  ==&lt;br /&gt;
&lt;br /&gt;
Dentro de los hitos más relevantes, en el modelado de la percepción visual, podemos mencionar los estudios de Kepler sobre el análisis geométrico de la formación de la imagen en el ojo, las apreciaciones de Newton sobre visión en color, Helmhotz (1910) sobre óptica fisiológica y Wertheimer (1912) sobre el movimiento aparente de agrupaciones de puntos o campos. Estos trabajos, unidos a otros, han establecido las bases de las actuales teorías de percepción visual. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Muchos concuerdan en que el primer gran paso se logró a principio del siglo XX con la aparición de la escuela de psicología de la Gelstat basada, principalmente, en los trabajos de Wertheimer. Esta escuela tuvo, dentro de sus resultados más relevantes, el establecer criterios que planteaban que características como la similaridad, homogeneidad, cercanía, etc, eran suficientes para tratar de explicar las propiedades de los mecanismos psicofísicos de la visión humana. Pero, esta aproximación con criterios tan globales se perdió años más tarde al no poder dar respuesta a nuevos interrogantes dentro del proceso de percepción visual&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Alrededor de los años 50, la investigación se orientó en la búsqueda de explicaciones al más bajo nivel celular, lo que originó una nueva corriente de ideas y teorías que con base en las potencialidades de las neuronas como células individuales. Se intentó explicar los mecanismos y propiedades de la visión humana, Hubel y Weisel (1962, 1968) y Barlow (1972). Sin embargo, esta aproximación tampoco pudo dar respuesta a los problemas más profundos de como nuestro mecanismo visual codifica, representa y reconoce distintos tipos de informaciones espaciales.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dada la enorme complejidad mostrada por el sistema de visión humana y como consecuencia del lento avance de las teorías y algoritmos que explicaban su funcionamiento y propiedades se intentó abordar estos problemas de formas más directas a partir de tres enfoques distintos. El primero se basó en el desarrollo de técnicas empíricas basadas en criterios de tipo matemático que aproximaban estos problemas de estimación de bordes y líneas usando distintos criterios. Dentro de este Grupo se encontraba Azriel Rosenfeld. Estas aproximaciones crearon algunas ideas interesantes como el uso simultáneo de operadores de distinto tamaño, pero tuvo el gran inconveniente de no poder proponer métodos para la evaluación de los distintos algoritmos.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
El segundo enfoque se basó en profundizar en el problema reduciendo su alcance a un mundo de bloques blancos iluminados sobre fondo negro. Los bloques podían tener cualquier forma, siempre que todas sus superficies fueran planas y todos sus bordes rectos. Este modelo funcionó perfectamente en ciertos trabajos como los realizados por Waltz (1975) y Mackworth (1973); ellos resolvieron interpretaciones de dibujos lineales a partir de estudios de imágenes de prismas sólidos. De hecho, la simplificación impuesta en este modelo se había hecho con el razonamiento de que presentado un conocimiento profundo del problema en un mundo simplificado permitiría más tarde extrapolar dichos conocimientos a mundos más complejos.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
En años más recientes se enfrascaron en idear un modelo más completo de la percepción visual que eliminara las limitaciones de los anteriores, esta especialización trajo consigo el tercer enfoque. Dentro de los trabajos más relevantes podemos mencionar los realizados por Horn (1975, 1977) sobre la formación de la imagen. En ellos Horn establece modelos de cálculo que expresan la formación de la imagen a través de ecuaciones diferenciales que relacionan los valores de intensidad de la imagen con la geometría de la superficie tras estudiar con gran detalle el modo en que la iluminación, la geometría, la reflectancia de la superficie y el punto de vista del observador actuaban de forma conjunta para crear los valores de intensidad medidos en la imagen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Fue entonces cuando diversos investigadores, dentro de los cuales se destacó Julesz (1975), demostraron que los mecanismos de la visión estereoscópica son realizados en la retina en una etapa muy previa del proceso de visión, y que el mecanismo de visión humana tiene la posibilidad de interpretar imágenes en 3D usando solamente las informaciones sobre profundidad, distancia y textura.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Estos estudios lograron establecer las denominadas teorías de tipo modular, las cuales representaban el proceso de visión como la sucesión de transformaciones que a partir de la escena del mundo externo, produce una descripción útil al observador sin estar entorpecida por la información irrelevante. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La mayoría de los estudiosos del tema concuerdan en que a las técnicas asociadas al estudio de los sistemas de visión artificial debe considerarse como parte de la Inteligencia Artificial por cuanto modelan actividades del cerebro humano.&amp;lt;br&amp;gt;En los últimos años se han realizado un sin número de trabajos en el campo de la visión artificial. Institutos como el MIT (Massachusetts Institute of Technology), llevaron la delantera durante los años 70 y marcaron pautas en los estudios en estos temas. Uno de los investigadores más relevantes de este instituto resultó ser David Marr, el cual estableció una metodología modular tipo “Botton/Up”. Para lograr realizar el procesamiento de una imagen percibida, Marr planteó tres grandes bloques para el procesamiento de la información. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
#Cálculo del esbozo primitivo como estructura informacional que caracteriza los distintos rasgos básicos (bordes, líneas, arcos, ceros, manchas, etc) presentes en la imagen de intensidades (nivel 2D). &lt;br /&gt;
#Construcción de las superficies presentes en la imagen desde el punto de vista del observador, a partir de la informaciones suministradas por el esbozo primitivo y las informaciones tridimensionales proporcionadas por las estereoscopía, sombreado, reflectancia, iluminación, etc. &lt;br /&gt;
#Construcción del modelo que representa a los objetos en el espacio y permite catalogarlos y compararlos con información previamente almacenada (nivel 3D).&lt;br /&gt;
&lt;br /&gt;
Marr forjó las bases en el campo del estudio de los mecanismos de la visión humana y el análisis de imágenes digitales, sus principales hitos se basaron en realizar métodos para la descomposición de la información en niveles 2D, 3D y sus esquemas de representación de la información en cada uno de estos niveles.&amp;lt;br&amp;gt;Otros estudiosos se dedicaron a profundizar en estos estudios dentro de los que podemos mencionar a Nishihara el cual planteó en 1978 que la información acerca de la geometría y la reflectancia de las superficies visibles se codifica en la imagen de varias formas y puede ser decodificada por procesos casi independientes.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La comprensión de esta frase fue el comienzo que dio lugar a la aparición de múltiples teorías sobre los procesos de decodificación. Muchos de estos procesos de decodificación permanecen hoy en día como áreas activas de investigación. De entre los más importantes podemos citar: la estereoscopía, la derivación de la estructura a partir del movimiento aparente, la selectividad de dirección, el cálculo de la profundidad a partir del flujo óptico, el cálculo de la orientación de la superficie a partir de su textura, el cálculo de la forma a partir de la sombra, la estereoscopía fotométrica, etc. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Con la llegada de las primeras computadoras digitales en los años 50-60, se comienza a necesitar de disponer de técnicas para la transmisión y procesamiento de imágenes desde satélite, uno de los empujes dados a estas técnicas de trasmisión, realce y restauración de imágenes fueron realizados por el Jet Propulsion Laboratory (EEUU), encargado del procesamiento de las imágenes mandadas por los primeros satélites y por el National Institute of Health (EEUU) dedicado al estudio de imágenes de rayos X, microscopía óptica y electrónica. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
No cabe la menor duda que el MIT junto con la Universidad de Stanford se perfilan como los centros más sobresalientes en los estudios de visión artificial, dentro de sus trabajos más relevantes se pueden mencionar la visión aplicada a robótica bajo el proyecto Hand-Eye y el llamado proyecto UIS (Image Understanding System), este último proyecto marca el comienzo del uso de estas técnicas en aplicaciones de tipo militar. Por otra parte países como Japón desarrollaron el llamado proyecto PIPS (Pattern-Information Processing System), el cual impulsó el desarrollo del análisis de imágenes.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Los estudios realizados por los países de Europa no se quedaron detrás cabe destacar la investigación desarrollada, durante los años setenta, por los profesores G. Matheron y J. Serra de la École National Supérieure des Mines de Paris (Francia) el cual ofreció aportes a la geometría integral y el cálculo de probabilidades para la caracterización y medición de formas, esta metodología se denomina Morfología Matemática y ha tenido sus principales áreas de aplicación en los campos de la geología, la biología y la medicina. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
A partir de este momento se observar el comienzo de cierta especialización en las técnicas existentes. Así, comienzan a aparecer los conceptos de técnicas para el procesamiento de imágenes digitales como el conjunto de todas aquellas técnicas asociadas a la captura, codificación y representación de las imágenes que no introducen sobre las mismas ningún tipo de interpretación, y técnicas para el análisis de imágenes digitales, técnicas de visión por computadora o visión mediante robot como acepciones que se refieren a aquellas técnicas que tratan de extraer la información presente en la imagen con el fin de hacer una interpretación de las escena representada por dicha imagen. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sistema de Visión Humano  ==&lt;br /&gt;
&lt;br /&gt;
¿Porqué no realizar un modelado perfecto del sistema de visión humano e implementarlo en una computadora?&amp;lt;br&amp;gt;La respuesta no es sencilla, gran cantidad de estudios demuestran claramente que nuestro sistema visual lejos de ser perfecto contiene una serie de irregularidades que no deben ser modeladas para lograr un sistema artificial que supere al humano. No existe ninguna razón para modelar los errores de nuestro sistema.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Para realizar un bosquejo de la argumentación anterior realizaremos un estudio de nuestro sistema de visión y observaremos los puntos débiles y sus fortalezas.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Todo sistema de visión está compuesto por tres partes fundamentales: &lt;br /&gt;
&lt;br /&gt;
#Las señales que percibimos.&amp;amp;nbsp; &lt;br /&gt;
#El medio en que se transmiten. &lt;br /&gt;
#Los mecanismos de decodificación del sistema receptor y/o cerebro.&lt;br /&gt;
&lt;br /&gt;
Una imagen puede describirse como un mapa espacial que sobre una determinada información que nos ofrece algún tipo de sensor. Ejemplos de este tipo de mapas son nuestras percepciones de una determinada situación o escena a partir de nuestros sistemas sensoriales (vista, oído, tacto, gusto, y olfato). Para centrar aun más nuestro estudio nos preguntaremos sobre el significado real de lo que significa ver o adquirir información a través de un sistema sensorial de tipo visual. Si nos centramos en el modelo visual humano asociaremos el concepto de ver con el de percibir una señal luminosa con una intensidad mínima y en un rango de frecuencia espectral dado. Sin embargo hoy en día son bien conocidas las posibilidades de obtener imágenes a partir de sensores que trabajen en condiciones muy distintas de iluminación a las que es sensible el ojo humano, por ejemplo, el espectro infrarrojo, rayos X, etc. Así pues, la posibilidad de formar imágenes debemos asociarla al tipo de sensor usado y a las posibilidades de que dicho sensor sea capaz de captar y decodificar la información que le llega. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Una vez que tenemos conocimiento de la composición de la señal a analizar podemos pasar al estudio del sensor que debe captar la información. En el caso de nuestro sistema de visión, el ojo se perfila como nuestro sensor del espectro visible.&amp;amp;nbsp;El ojo es casi una esfera de unos 20mm de diámetro, formada por un conjunto de membranas denominadas cornea, esclera, coroide y retina. La cornea y la esclera, constituyen las envolturas externas anterior y posterior del ojo respectivamente. La capa coroidal además de alimentar el ojo a través de sus vasos sanguíneos, tiene la misión de absolver las luces extrañas que entran el ojo así como de amortiguar el efecto de dispersión de la luz dentro del globo ocular. El iris o diafragma esta situado en la parte anterior del coroide, y tiene como misión controlar la cantidad de luz que entra en el ojo. Para ello, la pupila o parte central del iris puede cambiar de tamaño en función de la luminosidad incidente desde 2mm a 8mm de diámetro. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Image:Ojo.JPG|frame|right|377x277px|Esquema descriptor del ojo humano]]&amp;amp;nbsp; &lt;br /&gt;
&lt;br /&gt;
La lente del ojo esta formada por capas concéntricas de células fibrosas y esta sujeta al coroide a través de fibras, esta compuesta principalmente por agua (60%-70%), grasa 6% y proteínas. En la lente se absorbe cerca del 8% del espectro de luz visible así como una gran proporción de luz infrarroja y ultravioleta. &amp;lt;br&amp;gt;La membrana más interna del ojo es la retina que cubre toda la pared interna del ojo. Cuando la luz llega al ojo la imagen que transporta se forma en la retina por la sensibilización de dos clases de receptores: los bastones y los conos. &amp;lt;br&amp;gt;El número de conos existentes en un ojo esta entre 6-7 millones y su situación dentro del ojo se concentra alrededor de un punto llamado fóvea. &lt;br /&gt;
&lt;br /&gt;
La misión de los conos dentro del ojo es doble. Por un lado son responsables de la detección del color y por otro ayudan a resolver los detalles finos de la imagen. &amp;lt;br&amp;gt;Cuando una persona quiere resolver detalles finos en una imagen intenta que esta se forme en su retina alrededor de la fóvea, consiguiendo por tanto, que los conos sean mayoritariamente los receptores de la luz. La visión a través de los conos se denomina visión fotocópica o de luz brillante. &amp;lt;br&amp;gt;Por otro lado, el número de bastones existentes en un ojo es muy superior al de conos y esta entre 75-150 millones. Los bastones se distribuyen sobre toda la retina y al igual que los conos tienen una doble misión. Por un lado son responsables de dar una impresión general del campo de visión y por otro son responsables de la sensibilidad a niveles bajos de iluminación. Los bastones no son sensibles al color. &lt;br /&gt;
&lt;br /&gt;
Un objeto que a la luz del día tiene colores vivos, observado a la luz de la luna aparece sin colores, esto es debido a que tan solo los bastones están estimulados. A la visión a través de bastones se le denomina visión escotópica o de luz tenue.&amp;lt;br&amp;gt;El ojo humano es capaz de adaptarse en un rango de valores de iluminación de aproximadamente&amp;amp;nbsp;10 órdenes de magnitud. El punto más importante a la hora de interpretar este enorme rango es el hecho de que el ojo no opera de forma simultánea sobre todo el rango si no que en cada caso y en función de la luminosidad medía existente se hace sensible a un rango alrededor de dicho valor medio. Este efecto de adaptación se denomina adaptación al brillo. Numerosos experimentos han mostrado que el brillo subjetivo percibido es una función logarítmica de la intensidad de luz incidente en el ojo. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
El sistema de visión humano como otras partes de la anatomía del cuerpo humano es fruto de la evolución. Como consecuencia de esto el sistema de visión humano responde a unos patrones mejor que otros, por otro lado puede llegar a conclusiones erradas al interpretar situaciones ambiguas por la existencia de ilusiones visuales, ambigüedades e inconsistencias.Las ambigüedades son muy frecuentes y se basan en que una figura puede tener más de una posible interpretación. Múltiples interpretaciones pueden coexistir o una puede dominar. &amp;lt;br&amp;gt;Los investigadores han demostrado que inferimos de nuestras imágenes en la retina más de lo que de verdad está soportado por la geometría y física de la formación de imágenes. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Helmhotz en su libro Handbook of Physiological Optics publicado a mediados del siglo pasado expresó que cada imagen es una imagen de algo sólo para aquel que conoce como leerla, y que está capacitado con la ayuda de la imagen a formar una idea de la cosa. &amp;lt;br&amp;gt;Esta afirmación nos muestra que el sistema visual humano no realiza inferencias precisas y exactas basadas en la física de la formación de imágenes en el ojo, sino que el sistema visual invoca reglas que se obtienen y están dirigidas por la experiencia previa del individuo y tal vez por la especie. &amp;lt;br&amp;gt;Como se pudo apreciar nuestro sistema de visión ha evolucionado y presenta sistemas de adaptación increíbles a los cambios de iluminación entre otras de sus fortalezas, sin embargo también presenta debilidades que no deben ser tomadas en cuenta a la hora de realizar un sistema que lo simule.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sistema de Visión Artificial [[Image:SistemaVisionArtificial.jpg|frame|right|393x237px|Componentes de un Sistema de Visión Artificial]]  ==&lt;br /&gt;
&lt;br /&gt;
La necesidad de ver artificialmente evoluciona a medida que el ser humano es capaz de estudiar su propio cuerpo y demostrar que cerca del 60% de la corteza cerebral del hombre se dedica a procesar la información visual.&amp;lt;br&amp;gt;Los sistemas de visión artificial han evolucionado poco a poco a medida que la tecnología ha evolucionado y ha permitido la creación de sensores, computadoras y algoritmos de procesamiento más potentes.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
De forma básica un sistema de visión artificial está conformado por varios subsistemas capaces de realizar dos funciones básicas:&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
#Captar la información de la escena real mediante la proyección en una imagen. &lt;br /&gt;
#Analizar las imágenes para extraer la información que contienen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Los sensores, la iluminación y las tarjetas digitalizadoras son los dispositivos más importantes en la captura de la información de las escenas reales; en cambio el mayor peso del análisis de las imágenes captadas se encuentra a nivel de software aunque en ocasiones se encuentran dispositivos que realizan la extracción de la información utilizando hardware especializado, un ejemplo de esto son las tarjetas digitalizadoras que contienen incorporadas funciones de procesamiento como es el caso de filtrado para detectar contornos construidas por la compañía [http://www.matrox.com Matrox]. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Sensores.  ===&lt;br /&gt;
&lt;br /&gt;
Existe gran diversidad de sensores a partir de los cuales se pueden obtener imágenes. Su principal clasificación es a partir de la naturaleza de la señal que conforman la imagen, dentro de ellos podemos mencionar, los sensores de Rayos X, Rayos Gamma, luz ultravioleta, infrarroja, etc. Por otra parte podemos mencionar los sensores basados en el principio del eco como es el caso de los radares y los equipos de ultrasonido.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La variedad de sensores utilizados en sistemas de visión artificial se ha expandido hasta dominios insospechados en este aspecto estos sistemas superan ampliamente al sistema de visión humano el cual sólo puede tomar información visual dentro del espectro visible. Sin embargo no cabe duda que los sensores más utilizados, en aplicaciones que requieran de este tipo de sistemas, son la cámaras ya sean estas fotográficas o de video.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Las cámaras son las encargadas de captar la información luminosa de la escena a analizar y convertirla en una señal, analógica o digital, para ser utilizada por los sistemas de procesamiento.&amp;lt;br&amp;gt;Existen varios tipos de cámaras digitales, las cuales se dividen en función de: &lt;br /&gt;
&lt;br /&gt;
*Modo de captar la información de la escena. Dentro de esta categoría se pueden mencionar las cámaras basadas en tecnología Vidicom, Orticom y CCD. &lt;br /&gt;
*Modo de exploración. Aquí se encuentran las cámaras de exploración de línea y área. &lt;br /&gt;
*Estado sólido y no sólido.&lt;br /&gt;
&lt;br /&gt;
=== Iluminación.  ===&lt;br /&gt;
&lt;br /&gt;
La iluminación de una escena es uno de los puntos sensibles en un sistema de visión. Las fuentes de luz se deben escoger en función de la aplicación que se desea realizar, una fuente mal escogida puede traer consigo un sin número de anormalidades difíciles de eliminar como son el caso de las sombras, las reflexiones y el bajo contraste. Es por ello que el conocimiento del tipo de iluminación a utilizar se debe tener muy en cuenta.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Iluminación tipo LED  ====&lt;br /&gt;
&lt;br /&gt;
La luz emitida por este tipo de fuente presenta como ventaja fundamental que tiene naturaleza monocromática, estos dispositivos presentan una larga vida útil, alto rendimiento y requieren de una fuente de alimentación de muy baja potencia además presentan un costo excesivamente bajo. Sus principales desventajas son que emiten poca intensidad y que en ocasiones dos LEDs similares presentan diferencias en la longitud de onda de la luz que emiten.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Flash  ====&lt;br /&gt;
&lt;br /&gt;
Normalmente se utilizan para captar imágenes en movimiento, son fuentes de luz de gran intensidad luminosa que se ve poco afectada por la luz ambiente. Su principal desventaja es la fuente de alimentación las cuales deben estar bien sincronizadas con le sistema de captura de la imagen, presentan gran disipación de calor y pierden luminosidad con el tiempo. A su favor podemos decir que son fuentes extremadamente rápidas.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Láser  ====&lt;br /&gt;
&lt;br /&gt;
Muchos hemos escuchado hablar de lo extremadamente direccional de la luz emitida por este tipo de fuente además presenta la característica de ser monocromática. Se postula como una fuente de luz casi perfecta aunque su inconveniente principal es su costo y la necesidad de colocarle dispositivos auxiliares para realizar barridos de la zona de interés.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Lámpara Incandescente  ====&lt;br /&gt;
&lt;br /&gt;
Su iluminación es bastante homogénea aunque presenta las dificultades de ser consumidoras y disipadoras de calor. No presentan tiempos de vida largo aunque si son muy baratas.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Lámparas Fluorescentes  ====&lt;br /&gt;
&lt;br /&gt;
Su iluminación es muy clara aunque presentan tiempos de vida cortos y las pérdidas de iluminación con el tiempo son acentuadas. El costo de este tipo de fuente es bajo.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Tarjetas digitalizadoras.  ===&lt;br /&gt;
&lt;br /&gt;
La función de estas tarjetas es captar la señal que ofrece el sensor de imagen y convertirla a formato digital y entregarla al dispositivo inteligente, llámese PC o PLC, para su posterior análisis. Una muestra de este tipo de dispositivo se observa en la siguiente figura&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Las funciones principales que realiza este tipo de dispositivo son: &lt;br /&gt;
&lt;br /&gt;
#Recoger la señal analógica procedente de la cámara. &lt;br /&gt;
#Convertir la señal analógica en digital. &lt;br /&gt;
#Almacenar la señal digital en memoria.&lt;br /&gt;
&lt;br /&gt;
Las tarjetas comerciales incluyen: Memoria propia, funciones de procesado, conversores digital-analógico y analógico-digital e incluso presentación en pantalla de la imagen. &lt;br /&gt;
&lt;br /&gt;
&amp;amp;nbsp; &lt;br /&gt;
&lt;br /&gt;
=== &amp;amp;nbsp;Análisis de Imágenes Digitales.  ===&lt;br /&gt;
&lt;br /&gt;
Una vez captada la imagen por el sensor y transmitida al dispositivo donde será procesada, el paso siguiente es realizar la extracción de la información explícita que encierra dicha imagen, por ejemplo posición de los objetos, forma, textura etc.&amp;lt;br&amp;gt;Las técnicas utilizadas para realizar la extracción de esta información se dividen en cuatro grupos fundamentales: &lt;br /&gt;
&lt;br /&gt;
#Preprocesado. &lt;br /&gt;
#Segmentación. &lt;br /&gt;
#Descripción. &lt;br /&gt;
#Reconocimiento.&amp;amp;nbsp;&lt;br /&gt;
&lt;br /&gt;
==== Preprocesado  ====&lt;br /&gt;
&lt;br /&gt;
Este grupo de funciones se especializa en realizarle mejoras a la imagen captada, es decir resalta un sin número de características que conllevan a elevar la calidad de la imagen a la hora de ser analizada. Dentro de las funciones más comunes se encuentra la eliminación del ruido, el cambio de contraste y brillo, las transformaciones geométricas dentro de otras.&amp;lt;br&amp;gt;[Mazo, et.al,1996],[Perez,2000], [Rosenfeld,Kak,1982], [Gonzalez ,1979], son algunos trabajos que describen estas técnicas.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Segmentación [[Image:SegmentacionInmagenes.jpg|frame|right]]  ====&lt;br /&gt;
&lt;br /&gt;
La clasificación de la escena en sus partes u objetos es a lo que se le llama segmentación de la imagen. Estas técnicas se basan en encontrar donde se encuentran grupos de pixels que conformen un ente a clasificar (objeto), para ello estas técnicas se basan en los principios de discontinuidad y similitud. La siguiente figura nos visualiza una muestra metalográfica en la cual son detectados todos los granos de la misma y son etiquetados con diferentes colores.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Descripción  ====&lt;br /&gt;
&lt;br /&gt;
Estas técnicas se basan en extraer, del ente a estudiar, las características que lo diferencian de los demás. Para realizar esta extracción de características es necesario realizar un estudio del objeto a analizar y extrae con cuidado las características invariantes que posea. Estas características deben ser, generalmente, independientes a rotaciones, escalamientos corrimientos de dicho objeto. Dentro de estas características podemos mencionar, área perímetro, circularidad, patrones de texturas, rasgos de formas, etc.&amp;lt;br&amp;gt;[Mazo, et.al,1996], [Rosenfeld,Daves,1997].&amp;amp;nbsp; &lt;br /&gt;
&lt;br /&gt;
==== Reconocimiento&amp;lt;br&amp;gt; ====&lt;br /&gt;
&lt;br /&gt;
Una vez obtenidas las características que describen el objeto a estudiar, se pasa al reconocimiento del mismo, esto no es más que la clasificación, utilizando cualquier técnica conocida, llámese inteligencia artificial, búsquedas deductivas en base de datos, comparación con patrones etc.&amp;lt;br&amp;gt;Dentro de las técnicas más utilizadas se encuentra la utilización de redes neuronales artificiales, algoritmos genéticos y métodos estadísticos avanzados. [Amir,1997], [Bishop,1998], [Fukunaga,1990].&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Grupos de Investigación en Cuba&amp;lt;br&amp;gt; ==&lt;br /&gt;
&lt;br /&gt;
*Centro de Estudios de Electrónica y Tecnologías de la Información, CEETI. Facultad de Ingeniería Eléctrica, Universidad Central “Marta Abreu” de Las Villas&amp;lt;br&amp;gt;&lt;br /&gt;
*[http://www.cenatav.co.cu CENATAV - Centro de Aplicaciones de Tecnologías de Avanzada]&amp;lt;br&amp;gt;&lt;br /&gt;
*[http://www.cedai.com.cu Empresa de Automatización Integral, CEDAI]&amp;lt;br&amp;gt;&lt;br /&gt;
*Grupo de Automatización, Robótica Persepción (GARP), Facultad de Ingeniería Eléctrica, Universidad Central “Marta Abreu” de Las Villas&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Fuentes  ==&lt;br /&gt;
&lt;br /&gt;
[http://www.ph.tn.tudelft.nl/Courses/FIP/noframes/fip-Contents.html Delft University, Image Processing Fundamentals, Internet Tutorial] &lt;br /&gt;
&lt;br /&gt;
[http://bucanero.ugr.es/wwwcurso/ccordoba/ccordoba.html Fundamentos del tratamiento de imágenes: Visión por Computador], autor: Pérez. N.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Category:Sistemas_Automatizados]]&lt;/div&gt;</summary>
		<author><name>Moises cedai</name></author>
		
	</entry>
	<entry>
		<id>https://www.ecured.cu/index.php?title=Visi%C3%B3n_Artificial&amp;diff=28154</id>
		<title>Visión Artificial</title>
		<link rel="alternate" type="text/html" href="https://www.ecured.cu/index.php?title=Visi%C3%B3n_Artificial&amp;diff=28154"/>
		<updated>2010-03-09T15:11:55Z</updated>

		<summary type="html">&lt;p&gt;Moises cedai: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Desarrollo}}&lt;br /&gt;
&lt;br /&gt;
'''Visión Artificial''' &lt;br /&gt;
&lt;br /&gt;
También conocida como ''Visión por Computadora.'' &lt;br /&gt;
&lt;br /&gt;
Se considera como el conjunto de todas aquellas técnicas y modelos que nos permitan la adquisición, procesamiento, análisis y explicación de cualquier tipo de información espacial del mundo real obtenida a través de imágenes digitales. &lt;br /&gt;
&lt;br /&gt;
== Otras Definiciones  ==&lt;br /&gt;
&lt;br /&gt;
''Visión Artificial es la ciencia que estudia, utilizando computadoras digitales, los procesos de obtención, caracterización, interpretación de la información procedentes de imágenes tomadas de un mundo tridimensional.'' &lt;br /&gt;
&lt;br /&gt;
''La Visión es un proceso de tratamiento de información que permite obtener una descripción simbólica del mundo real a partir de imágenes.'' &amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
== Antecedentes  ==&lt;br /&gt;
&lt;br /&gt;
Dentro de los hitos más relevantes, en el modelado de la percepción visual, podemos mencionar los estudios de Kepler sobre el análisis geométrico de la formación de la imagen en el ojo, las apreciaciones de Newton sobre visión en color, Helmhotz (1910) sobre óptica fisiológica y Wertheimer (1912) sobre el movimiento aparente de agrupaciones de puntos o campos. Estos trabajos, unidos a otros, han establecido las bases de las actuales teorías de percepción visual. &amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Muchos concuerdan en que el primer gran paso se logró a principio del siglo XX con la aparición de la escuela de psicología de la Gelstat basada, principalmente, en los trabajos de Wertheimer. Esta escuela tuvo, dentro de sus resultados más relevantes, el establecer criterios que planteaban que características como la similaridad, homogeneidad, cercanía, etc, eran suficientes para tratar de explicar las propiedades de los mecanismos psicofísicos de la visión humana. Pero, esta aproximación con criterios tan globales se perdió años más tarde al no poder dar respuesta a nuevos interrogantes dentro del proceso de percepción visual&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Alrededor de los años 50, la investigación se orientó en la búsqueda de explicaciones al más bajo nivel celular, lo que originó una nueva corriente de ideas y teorías que con base en las potencialidades de las neuronas como células individuales. Se intentó explicar los mecanismos y propiedades de la visión humana, Hubel y Weisel (1962, 1968) y Barlow (1972). Sin embargo, esta aproximación tampoco pudo dar respuesta a los problemas más profundos de como nuestro mecanismo visual codifica, representa y reconoce distintos tipos de informaciones espaciales.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Dada la enorme complejidad mostrada por el sistema de visión humana y como consecuencia del lento avance de las teorías y algoritmos que explicaban su funcionamiento y propiedades se intentó abordar estos problemas de formas más directas a partir de tres enfoques distintos. El primero se basó en el desarrollo de técnicas empíricas basadas en criterios de tipo matemático que aproximaban estos problemas de estimación de bordes y líneas usando distintos criterios. Dentro de este Grupo se encontraba Azriel Rosenfeld. Estas aproximaciones crearon algunas ideas interesantes como el uso simultáneo de operadores de distinto tamaño, pero tuvo el gran inconveniente de no poder proponer métodos para la evaluación de los distintos algoritmos.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
El segundo enfoque se basó en profundizar en el problema reduciendo su alcance a un mundo de bloques blancos iluminados sobre fondo negro. Los bloques podían tener cualquier forma, siempre que todas sus superficies fueran planas y todos sus bordes rectos. Este modelo funcionó perfectamente en ciertos trabajos como los realizados por Waltz (1975) y Mackworth (1973); ellos resolvieron interpretaciones de dibujos lineales a partir de estudios de imágenes de prismas sólidos. De hecho, la simplificación impuesta en este modelo se había hecho con el razonamiento de que presentado un conocimiento profundo del problema en un mundo simplificado permitiría más tarde extrapolar dichos conocimientos a mundos más complejos.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
En años más recientes se enfrascaron en idear un modelo más completo de la percepción visual que eliminara las limitaciones de los anteriores, esta especialización trajo consigo el tercer enfoque. Dentro de los trabajos más relevantes podemos mencionar los realizados por Horn (1975, 1977) sobre la formación de la imagen. En ellos Horn establece modelos de cálculo que expresan la formación de la imagen a través de ecuaciones diferenciales que relacionan los valores de intensidad de la imagen con la geometría de la superficie tras estudiar con gran detalle el modo en que la iluminación, la geometría, la reflectancia de la superficie y el punto de vista del observador actuaban de forma conjunta para crear los valores de intensidad medidos en la imagen.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Fue entonces cuando diversos investigadores, dentro de los cuales se destacó Julesz (1975), demostraron que los mecanismos de la visión estereoscópica son realizados en la retina en una etapa muy previa del proceso de visión, y que el mecanismo de visión humana tiene la posibilidad de interpretar imágenes en 3D usando solamente las informaciones sobre profundidad, distancia y textura.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Estos estudios lograron establecer las denominadas teorías de tipo modular, las cuales representaban el proceso de visión como la sucesión de transformaciones que a partir de la escena del mundo externo, produce una descripción útil al observador sin estar entorpecida por la información irrelevante. &amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
La mayoría de los estudiosos del tema concuerdan en que a las técnicas asociadas al estudio de los sistemas de visión artificial debe considerarse como parte de la Inteligencia Artificial por cuanto modelan actividades del cerebro humano.&amp;lt;br&amp;gt; En los últimos años se han realizado un sin número de trabajos en el campo de la visión artificial. Institutos como el MIT (Massachusetts Institute of Technology), llevaron la delantera durante los años 70 y marcaron pautas en los estudios en estos temas. Uno de los investigadores más relevantes de este instituto resultó ser David Marr, el cual estableció una metodología modular tipo “Botton/Up”. Para lograr realizar el procesamiento de una imagen percibida, Marr planteó tres grandes bloques para el procesamiento de la información. &amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
#Cálculo del esbozo primitivo como estructura informacional que caracteriza los distintos rasgos básicos (bordes, líneas, arcos, ceros, manchas, etc) presentes en la imagen de intensidades (nivel 2D). &lt;br /&gt;
#Construcción de las superficies presentes en la imagen desde el punto de vista del observador, a partir de la informaciones suministradas por el esbozo primitivo y las informaciones tridimensionales proporcionadas por las estereoscopía, sombreado, reflectancia, iluminación, etc. &lt;br /&gt;
#Construcción del modelo que representa a los objetos en el espacio y permite catalogarlos y compararlos con información previamente almacenada (nivel 3D).&lt;br /&gt;
&lt;br /&gt;
Marr forjó las bases en el campo del estudio de los mecanismos de la visión humana y el análisis de imágenes digitales, sus principales hitos se basaron en realizar métodos para la descomposición de la información en niveles 2D, 3D y sus esquemas de representación de la información en cada uno de estos niveles.&amp;lt;br&amp;gt;Otros estudiosos se dedicaron a profundizar en estos estudios dentro de los que podemos mencionar a Nishihara el cual planteó en 1978 que la información acerca de la geometría y la reflectancia de las superficies visibles se codifica en la imagen de varias formas y puede ser decodificada por procesos casi independientes.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
La comprensión de esta frase fue el comienzo que dio lugar a la aparición de múltiples teorías sobre los procesos de decodificación. Muchos de estos procesos de decodificación permanecen hoy en día como áreas activas de investigación. De entre los más importantes podemos citar: la estereoscopía, la derivación de la estructura a partir del movimiento aparente, la selectividad de dirección, el cálculo de la profundidad a partir del flujo óptico, el cálculo de la orientación de la superficie a partir de su textura, el cálculo de la forma a partir de la sombra, la estereoscopía fotométrica, etc. &amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Con la llegada de las primeras computadoras digitales en los años 50-60, se comienza a necesitar de disponer de técnicas para la transmisión y procesamiento de imágenes desde satélite, uno de los empujes dados a estas técnicas de trasmisión, realce y restauración de imágenes fueron realizados por el Jet Propulsion Laboratory (EEUU), encargado del procesamiento de las imágenes mandadas por los primeros satélites y por el National Institute of Health (EEUU) dedicado al estudio de imágenes de rayos X, microscopía óptica y electrónica. &amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
No cabe la menor duda que el MIT junto con la Universidad de Stanford se perfilan como los centros más sobresalientes en los estudios de visión artificial, dentro de sus trabajos más relevantes se pueden mencionar la visión aplicada a robótica bajo el proyecto Hand-Eye y el llamado proyecto UIS (Image Understanding System), este último proyecto marca el comienzo del uso de estas técnicas en aplicaciones de tipo militar. Por otra parte países como Japón desarrollaron el llamado proyecto PIPS (Pattern-Information Processing System), el cual impulsó el desarrollo del análisis de imágenes.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Los estudios realizados por los países de Europa no se quedaron detrás cabe destacar la investigación desarrollada, durante los años setenta, por los profesores G. Matheron y J. Serra de la École National Supérieure des Mines de Paris (Francia) el cual ofreció aportes a la geometría integral y el cálculo de probabilidades para la caracterización y medición de formas, esta metodología se denomina Morfología Matemática y ha tenido sus principales áreas de aplicación en los campos de la geología, la biología y la medicina. &amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
A partir de este momento se observar el comienzo de cierta especialización en las técnicas existentes. Así, comienzan a aparecer los conceptos de técnicas para el procesamiento de imágenes digitales como el conjunto de todas aquellas técnicas asociadas a la captura, codificación y representación de las imágenes que no introducen sobre las mismas ningún tipo de interpretación, y técnicas para el análisis de imágenes digitales, técnicas de visión por computadora o visión mediante robot como acepciones que se refieren a aquellas técnicas que tratan de extraer la información presente en la imagen con el fin de hacer una interpretación de las escena representada por dicha imagen. &amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
== Sistema de Visión Humano  ==&lt;br /&gt;
&lt;br /&gt;
¿Porqué no realizar un modelado perfecto del sistema de visión humano e implementarlo en una computadora?&amp;lt;br&amp;gt;La respuesta no es sencilla, gran cantidad de estudios demuestran claramente que nuestro sistema visual lejos de ser perfecto contiene una serie de irregularidades que no deben ser modeladas para lograr un sistema artificial que supere al humano. No existe ninguna razón para modelar los errores de nuestro sistema.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Para realizar un bosquejo de la argumentación anterior realizaremos un estudio de nuestro sistema de visión y observaremos los puntos débiles y sus fortalezas.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Todo sistema de visión está compuesto por tres partes fundamentales: &lt;br /&gt;
&lt;br /&gt;
#Las señales que percibimos.&amp;amp;nbsp; &lt;br /&gt;
#El medio en que se transmiten. &lt;br /&gt;
#Los mecanismos de decodificación del sistema receptor y/o cerebro.&lt;br /&gt;
&lt;br /&gt;
Una imagen puede describirse como un mapa espacial que sobre una determinada información que nos ofrece algún tipo de sensor. Ejemplos de este tipo de mapas son nuestras percepciones de una determinada situación o escena a partir de nuestros sistemas sensoriales (vista, oído, tacto, gusto, y olfato). Para centrar aun más nuestro estudio nos preguntaremos sobre el significado real de lo que significa ver o adquirir información a través de un sistema sensorial de tipo visual. Si nos centramos en el modelo visual humano asociaremos el concepto de ver con el de percibir una señal luminosa con una intensidad mínima y en un rango de frecuencia espectral dado. Sin embargo hoy en día son bien conocidas las posibilidades de obtener imágenes a partir de sensores que trabajen en condiciones muy distintas de iluminación a las que es sensible el ojo humano, por ejemplo, el espectro infrarrojo, rayos X, etc. Así pues, la posibilidad de formar imágenes debemos asociarla al tipo de sensor usado y a las posibilidades de que dicho sensor sea capaz de captar y decodificar la información que le llega. &amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Una vez que tenemos conocimiento de la composición de la señal a analizar podemos pasar al estudio del sensor que debe captar la información. En el caso de nuestro sistema de visión, el ojo se perfila como nuestro sensor del espectro visible.&amp;amp;nbsp;El ojo es casi una esfera de unos 20mm de diámetro, formada por un conjunto de membranas denominadas cornea, esclera, coroide y retina. La cornea y la esclera, constituyen las envolturas externas anterior y posterior del ojo respectivamente. La capa coroidal además de alimentar el ojo a través de sus vasos sanguíneos, tiene la misión de absolver las luces extrañas que entran el ojo así como de amortiguar el efecto de dispersión de la luz dentro del globo ocular. El iris o diafragma esta situado en la parte anterior del coroide, y tiene como misión controlar la cantidad de luz que entra en el ojo. Para ello, la pupila o parte central del iris puede cambiar de tamaño en función de la luminosidad incidente desde 2mm a 8mm de diámetro. &amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
[[Image:Ojo.JPG|frame|center|666x384px|Esquema descriptor del ojo humano]]&amp;amp;nbsp; &lt;br /&gt;
&lt;br /&gt;
La lente del ojo esta formada por capas concéntricas de células fibrosas y esta sujeta al coroide a través de fibras, esta compuesta principalmente por agua (60%-70%), grasa 6% y proteínas. En la lente se absorbe cerca del 8% del espectro de luz visible así como una gran proporción de luz infrarroja y ultravioleta. &amp;lt;br&amp;gt;La membrana más interna del ojo es la retina que cubre toda la pared interna del ojo. Cuando la luz llega al ojo la imagen que transporta se forma en la retina por la sensibilización de dos clases de receptores: los bastones y los conos. &amp;lt;br&amp;gt;El número de conos existentes en un ojo esta entre 6-7 millones y su situación dentro del ojo se concentra alrededor de un punto llamado fóvea. &lt;br /&gt;
&lt;br /&gt;
La misión de los conos dentro del ojo es doble. Por un lado son responsables de la detección del color y por otro ayudan a resolver los detalles finos de la imagen. &amp;lt;br&amp;gt;Cuando una persona quiere resolver detalles finos en una imagen intenta que esta se forme en su retina alrededor de la fóvea, consiguiendo por tanto, que los conos sean mayoritariamente los receptores de la luz. La visión a través de los conos se denomina visión fotocópica o de luz brillante. &amp;lt;br&amp;gt;Por otro lado, el número de bastones existentes en un ojo es muy superior al de conos y esta entre 75-150 millones. Los bastones se distribuyen sobre toda la retina y al igual que los conos tienen una doble misión. Por un lado son responsables de dar una impresión general del campo de visión y por otro son responsables de la sensibilidad a niveles bajos de iluminación. Los bastones no son sensibles al color. &lt;br /&gt;
&lt;br /&gt;
Un objeto que a la luz del día tiene colores vivos, observado a la luz de la luna aparece sin colores, esto es debido a que tan solo los bastones están estimulados. A la visión a través de bastones se le denomina visión escotópica o de luz tenue.&amp;lt;br&amp;gt;El ojo humano es capaz de adaptarse en un rango de valores de iluminación de aproximadamente&amp;amp;nbsp;10 órdenes de magnitud. El punto más importante a la hora de interpretar este enorme rango es el hecho de que el ojo no opera de forma simultánea sobre todo el rango si no que en cada caso y en función de la luminosidad medía existente se hace sensible a un rango alrededor de dicho valor medio. Este efecto de adaptación se denomina adaptación al brillo. Numerosos experimentos han mostrado que el brillo subjetivo percibido es una función logarítmica de la intensidad de luz incidente en el ojo. &amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
El sistema de visión humano como otras partes de la anatomía del cuerpo humano es fruto de la evolución. Como consecuencia de esto el sistema de visión humano responde a unos patrones mejor que otros, por otro lado puede llegar a conclusiones erradas al interpretar situaciones ambiguas por la existencia de ilusiones visuales, ambigüedades e inconsistencias.Las ambigüedades son muy frecuentes y se basan en que una figura puede tener más de una posible interpretación. Múltiples interpretaciones pueden coexistir o una puede dominar. &amp;lt;br&amp;gt; Los investigadores han demostrado que inferimos de nuestras imágenes en la retina más de lo que de verdad está soportado por la geometría y física de la formación de imágenes. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Helmhotz en su libro Handbook of Physiological Optics publicado a mediados del siglo pasado expresó que cada imagen es una imagen de algo sólo para aquel que conoce como leerla, y que está capacitado con la ayuda de la imagen a formar una idea de la cosa. &amp;lt;br&amp;gt; Esta afirmación nos muestra que el sistema visual humano no realiza inferencias precisas y exactas basadas en la física de la formación de imágenes en el ojo, sino que el sistema visual invoca reglas que se obtienen y están dirigidas por la experiencia previa del individuo y tal vez por la especie. &amp;lt;br&amp;gt;Como se pudo apreciar nuestro sistema de visión ha evolucionado y presenta sistemas de adaptación increíbles a los cambios de iluminación entre otras de sus fortalezas, sin embargo también presenta debilidades que no deben ser tomadas en cuenta a la hora de realizar un sistema que lo simule.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
== Sistema de Visión Artificial [[Image:SistemaVisionArtificial.jpg|frame|right|349x231px|Componentes de un Sistema de Visión Artificial]] ==&lt;br /&gt;
&lt;br /&gt;
La necesidad de ver artificialmente evoluciona a medida que el ser humano es capaz de estudiar su propio cuerpo y demostrar que cerca del 60% de la corteza cerebral del hombre se dedica a procesar la información visual.&amp;lt;br&amp;gt;Los sistemas de visión artificial han evolucionado poco a poco a medida que la tecnología ha evolucionado y ha permitido la creación de sensores, computadoras y algoritmos de procesamiento más potentes.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
De forma básica un sistema de visión artificial está conformado por varios subsistemas capaces de realizar dos funciones básicas:&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
#Captar la información de la escena real mediante la proyección en una imagen. &lt;br /&gt;
#Analizar las imágenes para extraer la información que contienen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Los sensores, la iluminación y las tarjetas digitalizadoras son los dispositivos más importantes en la captura de la información de las escenas reales; en cambio el mayor peso del análisis de las imágenes captadas se encuentra a nivel de software aunque en ocasiones se encuentran dispositivos que realizan la extracción de la información utilizando hardware especializado, un ejemplo de esto son las tarjetas digitalizadoras que contienen incorporadas funciones de procesamiento como es el caso de filtrado para detectar contornos construidas por la compañía [http://www.matrox.com Matrox]. &amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
=== Sensores.  ===&lt;br /&gt;
&lt;br /&gt;
Existe gran diversidad de sensores a partir de los cuales se pueden obtener imágenes. Su principal clasificación es a partir de la naturaleza de la señal que conforman la imagen, dentro de ellos podemos mencionar, los sensores de Rayos X, Rayos Gamma, luz ultravioleta, infrarroja, etc. Por otra parte podemos mencionar los sensores basados en el principio del eco como es el caso de los radares y los equipos de ultrasonido.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
La variedad de sensores utilizados en sistemas de visión artificial se ha expandido hasta dominios insospechados en este aspecto estos sistemas superan ampliamente al sistema de visión humano el cual sólo puede tomar información visual dentro del espectro visible. Sin embargo no cabe duda que los sensores más utilizados, en aplicaciones que requieran de este tipo de sistemas, son la cámaras ya sean estas fotográficas o de video.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Las cámaras son las encargadas de captar la información luminosa de la escena a analizar y convertirla en una señal, analógica o digital, para ser utilizada por los sistemas de procesamiento.&amp;lt;br&amp;gt;Existen varios tipos de cámaras digitales, las cuales se dividen en función de: &lt;br /&gt;
&lt;br /&gt;
*Modo de captar la información de la escena. Dentro de esta categoría se pueden mencionar las cámaras basadas en tecnología Vidicom, Orticom y CCD. &lt;br /&gt;
*Modo de exploración. Aquí se encuentran las cámaras de exploración de línea y área. &lt;br /&gt;
*Estado sólido y no sólido.&lt;br /&gt;
&lt;br /&gt;
=== Iluminación.  ===&lt;br /&gt;
&lt;br /&gt;
La iluminación de una escena es uno de los puntos sensibles en un sistema de visión. Las fuentes de luz se deben escoger en función de la aplicación que se desea realizar, una fuente mal escogida puede traer consigo un sin número de anormalidades difíciles de eliminar como son el caso de las sombras, las reflexiones y el bajo contraste. Es por ello que el conocimiento del tipo de iluminación a utilizar se debe tener muy en cuenta.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== Iluminación tipo LED ====&lt;br /&gt;
&lt;br /&gt;
La luz emitida por este tipo de fuente presenta como ventaja fundamental que tiene naturaleza monocromática, estos dispositivos presentan una larga vida útil, alto rendimiento y requieren de una fuente de alimentación de muy baja potencia además presentan un costo excesivamente bajo. Sus principales desventajas son que emiten poca intensidad y que en ocasiones dos LEDs similares presentan diferencias en la longitud de onda de la luz que emiten.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== Flash ====&lt;br /&gt;
&lt;br /&gt;
Normalmente se utilizan para captar imágenes en movimiento, son fuentes de luz de gran intensidad luminosa que se ve poco afectada por la luz ambiente. Su principal desventaja es la fuente de alimentación las cuales deben estar bien sincronizadas con le sistema de captura de la imagen, presentan gran disipación de calor y pierden luminosidad con el tiempo. A su favor podemos decir que son fuentes extremadamente rápidas.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== Láser ====&lt;br /&gt;
&lt;br /&gt;
Muchos hemos escuchado hablar de lo extremadamente direccional de la luz emitida por este tipo de fuente además presenta la característica de ser monocromática. Se postula como una fuente de luz casi perfecta aunque su inconveniente principal es su costo y la necesidad de colocarle dispositivos auxiliares para realizar barridos de la zona de interés.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== Lámpara Incandescente  ====&lt;br /&gt;
&lt;br /&gt;
Su iluminación es bastante homogénea aunque presenta las dificultades de ser consumidoras y disipadoras de calor. No presentan tiempos de vida largo aunque si son muy baratas.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== Lámparas Fluorescentes ====&lt;br /&gt;
&lt;br /&gt;
Su iluminación es muy clara aunque presentan tiempos de vida cortos y las pérdidas de iluminación con el tiempo son acentuadas. El costo de este tipo de fuente es bajo.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
=== Tarjetas digitalizadoras.  ===&lt;br /&gt;
&lt;br /&gt;
La función de estas tarjetas es captar la señal que ofrece el sensor de imagen y convertirla a formato digital y entregarla al dispositivo inteligente, llámese PC o PLC, para su posterior análisis. Una muestra de este tipo de dispositivo se observa en la siguiente figura&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Las funciones principales que realiza este tipo de dispositivo son: &lt;br /&gt;
&lt;br /&gt;
#Recoger la señal analógica procedente de la cámara. &lt;br /&gt;
#Convertir la señal analógica en digital. &lt;br /&gt;
#Almacenar la señal digital en memoria.&lt;br /&gt;
&lt;br /&gt;
Las tarjetas comerciales incluyen: Memoria propia, funciones de procesado, conversores digital-analógico y analógico-digital e incluso presentación en pantalla de la imagen. &lt;br /&gt;
&lt;br /&gt;
&amp;amp;nbsp; &lt;br /&gt;
&lt;br /&gt;
=== &amp;amp;nbsp;Análisis de Imágenes Digitales.  ===&lt;br /&gt;
&lt;br /&gt;
Una vez captada la imagen por el sensor y transmitida al dispositivo donde será procesada, el paso siguiente es realizar la extracción de la información explícita que encierra dicha imagen, por ejemplo posición de los objetos, forma, textura etc.&amp;lt;br&amp;gt;Las técnicas utilizadas para realizar la extracción de esta información se dividen en cuatro grupos fundamentales: &lt;br /&gt;
&lt;br /&gt;
#Preprocesado. &lt;br /&gt;
#Segmentación. &lt;br /&gt;
#Descripción. &lt;br /&gt;
#Reconocimiento.&amp;amp;nbsp;&lt;br /&gt;
&lt;br /&gt;
==== Preprocesado  ====&lt;br /&gt;
&lt;br /&gt;
Este grupo de funciones se especializa en realizarle mejoras a la imagen captada, es decir resalta un sin número de características que conllevan a elevar la calidad de la imagen a la hora de ser analizada. Dentro de las funciones más comunes se encuentra la eliminación del ruido, el cambio de contraste y brillo, las transformaciones geométricas dentro de otras.&amp;lt;br&amp;gt;[Mazo, et.al,1996],[Perez,2000], [Rosenfeld,Kak,1982], [Gonzalez ,1979], son algunos trabajos que describen estas técnicas.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== Segmentación [[Image:SegmentacionInmagenes.jpg|frame|right]] ====&lt;br /&gt;
&lt;br /&gt;
La clasificación de la escena en sus partes u objetos es a lo que se le llama segmentación de la imagen. Estas técnicas se basan en encontrar donde se encuentran grupos de pixels que conformen un ente a clasificar (objeto), para ello estas técnicas se basan en los principios de discontinuidad y similitud. La siguiente figura nos visualiza una muestra metalográfica en la cual son detectados todos los granos de la misma y son etiquetados con diferentes colores.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Descripción  ====&lt;br /&gt;
&lt;br /&gt;
Estas técnicas se basan en extraer, del ente a estudiar, las características que lo diferencian de los demás. Para realizar esta extracción de características es necesario realizar un estudio del objeto a analizar y extrae con cuidado las características invariantes que posea. Estas características deben ser, generalmente, independientes a rotaciones, escalamientos corrimientos de dicho objeto. Dentro de estas características podemos mencionar, área perímetro, circularidad, patrones de texturas, rasgos de formas, etc.&amp;lt;br&amp;gt;[Mazo, et.al,1996], [Rosenfeld,Daves,1997].&amp;amp;nbsp; &lt;br /&gt;
&lt;br /&gt;
==== Reconocimiento&amp;lt;br&amp;gt;  ====&lt;br /&gt;
&lt;br /&gt;
Una vez obtenidas las características que describen el objeto a estudiar, se pasa al reconocimiento del mismo, esto no es más que la clasificación, utilizando cualquier técnica conocida, llámese inteligencia artificial, búsquedas deductivas en base de datos, comparación con patrones etc.&amp;lt;br&amp;gt;Dentro de las técnicas más utilizadas se encuentra la utilización de redes neuronales artificiales, algoritmos genéticos y métodos estadísticos avanzados. [Amir,1997], [Bishop,1998], [Fukunaga,1990].&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Grupos de Investigación en Cuba&amp;lt;br&amp;gt; ==&lt;br /&gt;
&lt;br /&gt;
* Centro de Estudios de Electrónica y Tecnologías de la Información, CEETI. Facultad de Ingeniería Eléctrica, Universidad Central “Marta Abreu” de Las Villas&amp;lt;br&amp;gt;&lt;br /&gt;
* [http://www.cenatav.co.cu CENATAV - Centro de Aplicaciones de Tecnologías de Avanzada]&amp;lt;br&amp;gt;&lt;br /&gt;
* [http://www.cedai.com.cu Empresa de Automatización Integral, CEDAI]&amp;lt;br&amp;gt;&lt;br /&gt;
* Grupo de Automatización, Robótica Persepción (GARP), Facultad de Ingeniería Eléctrica, Universidad Central “Marta Abreu” de Las Villas&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Fuentes  ==&lt;br /&gt;
&lt;br /&gt;
[http://www.ph.tn.tudelft.nl/Courses/FIP/noframes/fip-Contents.html Delft University, Image Processing Fundamentals, Internet Tutorial]&lt;br /&gt;
[http://bucanero.ugr.es/wwwcurso/ccordoba/ccordoba.html Fundamentos del tratamiento de imágenes: Visión por Computador], autor: Pérez. N.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
[[Category:Sistemas_Automatizados]]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;/div&gt;</summary>
		<author><name>Moises cedai</name></author>
		
	</entry>
	<entry>
		<id>https://www.ecured.cu/index.php?title=Visi%C3%B3n_Artificial&amp;diff=27993</id>
		<title>Visión Artificial</title>
		<link rel="alternate" type="text/html" href="https://www.ecured.cu/index.php?title=Visi%C3%B3n_Artificial&amp;diff=27993"/>
		<updated>2010-03-08T23:28:13Z</updated>

		<summary type="html">&lt;p&gt;Moises cedai: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''{{Desarrollo}}''' &lt;br /&gt;
&lt;br /&gt;
'''Visión Artificial''' &lt;br /&gt;
&lt;br /&gt;
También conocida como ''Visión por Computadora.'' &lt;br /&gt;
&lt;br /&gt;
Se considera como el conjunto de todas aquellas técnicas y modelos que nos permitan la adquisición, procesamiento, análisis y explicación de cualquier tipo de información espacial del mundo real obtenida a través de imágenes digitales. &lt;br /&gt;
&lt;br /&gt;
== Otras Definiciones  ==&lt;br /&gt;
&lt;br /&gt;
''Visión Artificial es la ciencia que estudia, utilizando computadoras digitales, los procesos de obtención, caracterización, interpretación de la información procedentes de imágenes tomadas de un mundo tridimensional.'' &lt;br /&gt;
&lt;br /&gt;
''La Visión es un proceso de tratamiento de información que permite obtener una descripción simbólica del mundo real a partir de imágenes.'' &lt;br /&gt;
&lt;br /&gt;
&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
== Antecedentes  ==&lt;br /&gt;
&lt;br /&gt;
Dentro de los hitos más relevantes, en el modelado de la percepción visual, podemos mencionar los estudios de Kepler sobre el análisis geométrico de la formación de la imagen en el ojo, las apreciaciones de Newton sobre visión en color, Helmhotz (1910) sobre óptica fisiológica y Wertheimer (1912) sobre el movimiento aparente de agrupaciones de puntos o campos. Estos trabajos, unidos a otros, han establecido las bases de las actuales teorías de percepción visual. &amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Muchos concuerdan en que el primer gran paso se logró a principio del siglo XX con la aparición de la escuela de psicología de la Gelstat basada, principalmente, en los trabajos de Wertheimer. Esta escuela tuvo, dentro de sus resultados más relevantes, el establecer criterios que planteaban que características como la similaridad, homogeneidad, cercanía, etc, eran suficientes para tratar de explicar las propiedades de los mecanismos psicofísicos de la visión humana. Pero, esta aproximación con criterios tan globales se perdió años más tarde al no poder dar respuesta a nuevos interrogantes dentro del proceso de percepción visual&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Alrededor de los años 50, la investigación se orientó en la búsqueda de explicaciones al más bajo nivel celular, lo que originó una nueva corriente de ideas y teorías que con base en las potencialidades de las neuronas como células individuales. Se intentó explicar los mecanismos y propiedades de la visión humana, Hubel y Weisel (1962, 1968) y Barlow (1972). Sin embargo, esta aproximación tampoco pudo dar respuesta a los problemas más profundos de como nuestro mecanismo visual codifica, representa y reconoce distintos tipos de informaciones espaciales.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Dada la enorme complejidad mostrada por el sistema de visión humana y como consecuencia del lento avance de las teorías y algoritmos que explicaban su funcionamiento y propiedades se intentó abordar estos problemas de formas más directas a partir de tres enfoques distintos. El primero se basó en el desarrollo de técnicas empíricas basadas en criterios de tipo matemático que aproximaban estos problemas de estimación de bordes y líneas usando distintos criterios. Dentro de este Grupo se encontraba Azriel Rosenfeld. Estas aproximaciones crearon algunas ideas interesantes como el uso simultáneo de operadores de distinto tamaño, pero tuvo el gran inconveniente de no poder proponer métodos para la evaluación de los distintos algoritmos.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
El segundo enfoque se basó en profundizar en el problema reduciendo su alcance a un mundo de bloques blancos iluminados sobre fondo negro. Los bloques podían tener cualquier forma, siempre que todas sus superficies fueran planas y todos sus bordes rectos. Este modelo funcionó perfectamente en ciertos trabajos como los realizados por Waltz (1975) y Mackworth (1973); ellos resolvieron interpretaciones de dibujos lineales a partir de estudios de imágenes de prismas sólidos. De hecho, la simplificación impuesta en este modelo se había hecho con el razonamiento de que presentado un conocimiento profundo del problema en un mundo simplificado permitiría más tarde extrapolar dichos conocimientos a mundos más complejos.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
En años más recientes se enfrascaron en idear un modelo más completo de la percepción visual que eliminara las limitaciones de los anteriores, esta especialización trajo consigo el tercer enfoque. Dentro de los trabajos más relevantes podemos mencionar los realizados por Horn (1975, 1977) sobre la formación de la imagen. En ellos Horn establece modelos de cálculo que expresan la formación de la imagen a través de ecuaciones diferenciales que relacionan los valores de intensidad de la imagen con la geometría de la superficie tras estudiar con gran detalle el modo en que la iluminación, la geometría, la reflectancia de la superficie y el punto de vista del observador actuaban de forma conjunta para crear los valores de intensidad medidos en la imagen.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Fue entonces cuando diversos investigadores, dentro de los cuales se destacó Julesz (1975), demostraron que los mecanismos de la visión estereoscópica son realizados en la retina en una etapa muy previa del proceso de visión, y que el mecanismo de visión humana tiene la posibilidad de interpretar imágenes en 3D usando solamente las informaciones sobre profundidad, distancia y textura.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Estos estudios lograron establecer las denominadas teorías de tipo modular, las cuales representaban el proceso de visión como la sucesión de transformaciones que a partir de la escena del mundo externo, produce una descripción útil al observador sin estar entorpecida por la información irrelevante. (Marr, 1976; Marr y Nishihara, 1978). &amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
La mayoría de los estudiosos del tema concuerdan en que a las técnicas asociadas al estudio de los sistemas de visión artificial debe considerarse como parte de la Inteligencia Artificial por cuanto modelan actividades del cerebro humano.&amp;lt;br&amp;gt; En los últimos años se han realizado un sin número de trabajos en el campo de la visión artificial. Institutos como el MIT (Massachusetts Institute of Technology), llevaron la delantera durante los años 70 y marcaron pautas en los estudios en estos temas. Uno de los investigadores más relevantes de este instituto resultó ser David Marr, el cual estableció una metodología modular tipo “Botton/Up”. Para lograr realizar el procesamiento de una imagen percibida, Marr planteó tres grandes bloques para el procesamiento de la información. &amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
#Cálculo del esbozo primitivo como estructura informacional que caracteriza los distintos rasgos básicos (bordes, líneas, arcos, ceros, manchas, etc) presentes en la imagen de intensidades (nivel 2D). &lt;br /&gt;
#Construcción de las superficies presentes en la imagen desde el punto de vista del observador, a partir de la informaciones suministradas por el esbozo primitivo y las informaciones tridimensionales proporcionadas por las estereoscopía, sombreado, reflectancia, iluminación, etc. &lt;br /&gt;
#Construcción del modelo que representa a los objetos en el espacio y permite catalogarlos y compararlos con información previamente almacenada (nivel 3D).&lt;br /&gt;
&lt;br /&gt;
Marr forjó las bases en el campo del estudio de los mecanismos de la visión humana y el análisis de imágenes digitales, sus principales hitos se basaron en realizar métodos para la descomposición de la información en niveles 2D, 3D y sus esquemas de representación de la información en cada uno de estos niveles.&amp;lt;br&amp;gt;Otros estudiosos se dedicaron a profundizar en estos estudios dentro de los que podemos mencionar a Nishihara el cual planteó en 1978 que la información acerca de la geometría y la reflectancia de las superficies visibles se codifica en la imagen de varias formas y puede ser decodificada por procesos casi independientes.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
La comprensión de esta frase fue el comienzo que dio lugar a la aparición de múltiples teorías sobre los procesos de decodificación. Muchos de estos procesos de decodificación permanecen hoy en día como áreas activas de investigación. De entre los más importantes podemos citar: la estereoscopía, la derivación de la estructura a partir del movimiento aparente, la selectividad de dirección, el cálculo de la profundidad a partir del flujo óptico, el cálculo de la orientación de la superficie a partir de su textura, el cálculo de la forma a partir de la sombra, la estereoscopía fotométrica, etc. &amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Con la llegada de las primeras computadoras digitales en los años 50-60, se comienza a necesitar de disponer de técnicas para la transmisión y procesamiento de imágenes desde satélite, uno de los empujes dados a estas técnicas de trasmisión, realce y restauración de imágenes fueron realizados por el Jet Propulsion Laboratory (EEUU), encargado del procesamiento de las imágenes mandadas por los primeros satélites y por el National Institute of Health (EEUU) dedicado al estudio de imágenes de rayos X, microscopía óptica y electrónica. &amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
No cabe la menor duda que el MIT junto con la Universidad de Stanford se perfilan como los centros más sobresalientes en los estudios de visión artificial, dentro de sus trabajos más relevantes se pueden mencionar la visión aplicada a robótica bajo el proyecto Hand-Eye y el llamado proyecto UIS (Image Understanding System), este último proyecto marca el comienzo del uso de estas técnicas en aplicaciones de tipo militar. Por otra parte países como Japón desarrollaron el llamado proyecto PIPS (Pattern-Information Processing System), el cual impulsó el desarrollo del análisis de imágenes.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Los estudios realizados por los países de Europa no se quedaron detrás cabe destacar la investigación desarrollada, durante los años setenta, por los profesores G. Matheron y J. Serra de la École National Supérieure des Mines de Paris (Francia) el cual ofreció aportes a la geometría integral y el cálculo de probabilidades para la caracterización y medición de formas, esta metodología se denomina Morfología Matemática y ha tenido sus principales áreas de aplicación en los campos de la geología, la biología y la medicina. &amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
A partir de este momento se observar el comienzo de cierta especialización en las técnicas existentes. Así, comienzan a aparecer los conceptos de técnicas para el procesamiento de imágenes digitales como el conjunto de todas aquellas técnicas asociadas a la captura, codificación y representación de las imágenes que no introducen sobre las mismas ningún tipo de interpretación, y técnicas para el análisis de imágenes digitales, técnicas de visión por computadora o visión mediante robot como acepciones que se refieren a aquellas técnicas que tratan de extraer la información presente en la imagen con el fin de hacer una interpretación de las escena representada por dicha imagen. &amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
== Sistema de Visión Humano  ==&lt;br /&gt;
&lt;br /&gt;
¿Porqué no realizar un modelado perfecto del sistema de visión humano e implementarlo en una computadora?&amp;lt;br&amp;gt;La respuesta no es sencilla, gran cantidad de estudios demuestran claramente que nuestro sistema visual lejos de ser perfecto contiene una serie de irregularidades que no deben ser modeladas para lograr un sistema artificial que supere al humano. No existe ninguna razón para modelar los errores de nuestro sistema.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Para realizar un bosquejo de la argumentación anterior realizaremos un estudio de nuestro sistema de visión y observaremos los puntos débiles y sus fortalezas.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Todo sistema de visión está compuesto por tres partes fundamentales: &lt;br /&gt;
&lt;br /&gt;
#Las señales que percibimos.&amp;amp;nbsp; &lt;br /&gt;
#El medio en que se transmiten. &lt;br /&gt;
#Los mecanismos de decodificación del sistema receptor y/o cerebro.&lt;br /&gt;
&lt;br /&gt;
Una imagen puede describirse como un mapa espacial que sobre una determinada información que nos ofrece algún tipo de sensor. Ejemplos de este tipo de mapas son nuestras percepciones de una determinada situación o escena a partir de nuestros sistemas sensoriales (vista, oído, tacto, gusto, y olfato). Para centrar aun más nuestro estudio nos preguntaremos sobre el significado real de lo que significa ver o adquirir información a través de un sistema sensorial de tipo visual. Si nos centramos en el modelo visual humano asociaremos el concepto de ver con el de percibir una señal luminosa con una intensidad mínima y en un rango de frecuencia espectral dado. Sin embargo hoy en día son bien conocidas las posibilidades de obtener imágenes a partir de sensores que trabajen en condiciones muy distintas de iluminación a las que es sensible el ojo humano, por ejemplo, el espectro infrarrojo, rayos X, etc. Así pues, la posibilidad de formar imágenes debemos asociarla al tipo de sensor usado y a las posibilidades de que dicho sensor sea capaz de captar y decodificar la información que le llega. &amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Una vez que tenemos conocimiento de la composición de la señal a analizar podemos pasar al estudio del sensor que debe captar la información. En el caso de nuestro sistema de visión, el ojo se perfila como nuestro sensor del espectro visible.&amp;amp;nbsp;El ojo es casi una esfera de unos 20mm de diámetro, formada por un conjunto de membranas denominadas cornea, esclera, coroide y retina. La cornea y la esclera, constituyen las envolturas externas anterior y posterior del ojo respectivamente. La capa coroidal además de alimentar el ojo a través de sus vasos sanguíneos, tiene la misión de absolver las luces extrañas que entran el ojo así como de amortiguar el efecto de dispersión de la luz dentro del globo ocular. El iris o diafragma esta situado en la parte anterior del coroide, y tiene como misión controlar la cantidad de luz que entra en el ojo. Para ello, la pupila o parte central del iris puede cambiar de tamaño en función de la luminosidad incidente desde 2mm a 8mm de diámetro. &amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
[[Image:Ojo.JPG|frame|center|666x384px|Esquema descriptor del ojo humano]]&amp;amp;nbsp; &lt;br /&gt;
&lt;br /&gt;
La lente del ojo esta formada por capas concéntricas de células fibrosas y esta sujeta al coroide a través de fibras, esta compuesta principalmente por agua (60%-70%), grasa 6% y proteínas. En la lente se absorbe cerca del 8% del espectro de luz visible así como una gran proporción de luz infrarroja y ultravioleta. &amp;lt;br&amp;gt;La membrana más interna del ojo es la retina que cubre toda la pared interna del ojo. Cuando la luz llega al ojo la imagen que transporta se forma en la retina por la sensibilización de dos clases de receptores: los bastones y los conos. &amp;lt;br&amp;gt;El número de conos existentes en un ojo esta entre 6-7 millones y su situación dentro del ojo se concentra alrededor de un punto llamado fóvea. &lt;br /&gt;
&lt;br /&gt;
La misión de los conos dentro del ojo es doble. Por un lado son responsables de la detección del color y por otro ayudan a resolver los detalles finos de la imagen. &amp;lt;br&amp;gt;Cuando una persona quiere resolver detalles finos en una imagen intenta que esta se forme en su retina alrededor de la fóvea, consiguiendo por tanto, que los conos sean mayoritariamente los receptores de la luz. La visión a través de los conos se denomina visión fotocópica o de luz brillante. &amp;lt;br&amp;gt;Por otro lado, el número de bastones existentes en un ojo es muy superior al de conos y esta entre 75-150 millones. Los bastones se distribuyen sobre toda la retina y al igual que los conos tienen una doble misión. Por un lado son responsables de dar una impresión general del campo de visión y por otro son responsables de la sensibilidad a niveles bajos de iluminación. Los bastones no son sensibles al color. &lt;br /&gt;
&lt;br /&gt;
Un objeto que a la luz del día tiene colores vivos, observado a la luz de la luna aparece sin colores, esto es debido a que tan solo los bastones están estimulados. A la visión a través de bastones se le denomina visión escotópica o de luz tenue.&amp;lt;br&amp;gt;El ojo humano es capaz de adaptarse en un rango de valores de iluminación de aproximadamente&amp;amp;nbsp;10 órdenes de magnitud. El punto más importante a la hora de interpretar este enorme rango es el hecho de que el ojo no opera de forma simultánea sobre todo el rango si no que en cada caso y en función de la luminosidad medía existente se hace sensible a un rango alrededor de dicho valor medio. Este efecto de adaptación se denomina adaptación al brillo. Numerosos experimentos han mostrado que el brillo subjetivo percibido es una función logarítmica de la intensidad de luz incidente en el ojo. &amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
El sistema de visión humano como otras partes de la anatomía del cuerpo humano es fruto de la evolución. Como consecuencia de esto el sistema de visión humano responde a unos patrones mejor que otros, por otro lado puede llegar a conclusiones erradas al interpretar situaciones ambiguas por la existencia de ilusiones visuales, ambigüedades e inconsistencias.Las ambigüedades son muy frecuentes y se basan en que una figura puede tener más de una posible interpretación. Múltiples interpretaciones pueden coexistir o una puede dominar. &amp;lt;br&amp;gt; Los investigadores han demostrado que inferimos de nuestras imágenes en la retina más de lo que de verdad está soportado por la geometría y física de la formación de imágenes. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Helmhotz en su libro Handbook of Physiological Optics publicado a mediados del siglo pasado expresó que cada imagen es una imagen de algo sólo para aquel que conoce como leerla, y que está capacitado con la ayuda de la imagen a formar una idea de la cosa. &amp;lt;br&amp;gt; Esta afirmación nos muestra que el sistema visual humano no realiza inferencias precisas y exactas basadas en la física de la formación de imágenes en el ojo, sino que el sistema visual invoca reglas que se obtienen y están dirigidas por la experiencia previa del individuo y tal vez por la especie. &amp;lt;br&amp;gt;Como se pudo apreciar nuestro sistema de visión ha evolucionado y presenta sistemas de adaptación increíbles a los cambios de iluminación entre otras de sus fortalezas, sin embargo también presenta debilidades que no deben ser tomadas en cuenta a la hora de realizar un sistema que lo simule.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
== Sistema de Visión Artificial [[Image:SistemaVisionArtificial.jpg|frame|right|349x231px|Componentes de un Sistema de Visión Artificial]] ==&lt;br /&gt;
&lt;br /&gt;
La necesidad de ver artificialmente evoluciona a medida que el ser humano es capaz de estudiar su propio cuerpo y demostrar que cerca del 60% de la corteza cerebral del hombre se dedica a procesar la información visual.&amp;lt;br&amp;gt;Los sistemas de visión artificial han evolucionado poco a poco a medida que la tecnología ha evolucionado y ha permitido la creación de sensores, computadoras y algoritmos de procesamiento más potentes.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
De forma básica un sistema de visión artificial está conformado por varios subsistemas capaces de realizar dos funciones básicas:&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
#Captar la información de la escena real mediante la proyección en una imagen. &lt;br /&gt;
#Analizar las imágenes para extraer la información que contienen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Los sensores, la iluminación y las tarjetas digitalizadoras son los dispositivos más importantes en la captura de la información de las escenas reales; en cambio el mayor peso del análisis de las imágenes captadas se encuentra a nivel de software aunque en ocasiones se encuentran dispositivos que realizan la extracción de la información utilizando hardware especializado, un ejemplo de esto son las tarjetas digitalizadoras que contienen incorporadas funciones de procesamiento como es el caso de filtrado para detectar contornos construidas por la compañía [http://www.matrox.com Matrox]. &amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
. &lt;br /&gt;
&lt;br /&gt;
=== Sensores.  ===&lt;br /&gt;
&lt;br /&gt;
Existe gran diversidad de sensores a partir de los cuales se pueden obtener imágenes. Su principal clasificación es a partir de la naturaleza de la señal que conforman la imagen, dentro de ellos podemos mencionar, los sensores de Rayos X, Rayos Gamma, luz ultravioleta, infrarroja, etc. Por otra parte podemos mencionar los sensores basados en el principio del eco como es el caso de los radares y los equipos de ultrasonido.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
La variedad de sensores utilizados en sistemas de visión artificial se ha expandido hasta dominios insospechados en este aspecto estos sistemas superan ampliamente al sistema de visión humano el cual sólo puede tomar información visual dentro del espectro visible. Sin embargo no cabe duda que los sensores más utilizados, en aplicaciones que requieran de este tipo de sistemas, son la cámaras ya sean estas fotográficas o de video.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Las cámaras son las encargadas de captar la información luminosa de la escena a analizar y convertirla en una señal, analógica o digital, para ser utilizada por los sistemas de procesamiento.&amp;lt;br&amp;gt;Existen varios tipos de cámaras digitales, las cuales se dividen en función de: &lt;br /&gt;
&lt;br /&gt;
*Modo de captar la información de la escena. Dentro de esta categoría se pueden mencionar las cámaras basadas en tecnología Vidicom, Orticom y CCD. &lt;br /&gt;
*Modo de exploración. Aquí se encuentran las cámaras de exploración de línea y área. &lt;br /&gt;
*Estado sólido y no sólido.&lt;br /&gt;
&lt;br /&gt;
=== Iluminación.  ===&lt;br /&gt;
&lt;br /&gt;
La iluminación de una escena es uno de los puntos sensibles en un sistema de visión. Las fuentes de luz se deben escoger en función de la aplicación que se desea realizar, una fuente mal escogida puede traer consigo un sin número de anormalidades difíciles de eliminar como son el caso de las sombras, las reflexiones y el bajo contraste. Es por ello que el conocimiento del tipo de iluminación a utilizar se debe tener muy en cuenta.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== Iluminación tipo LED ====&lt;br /&gt;
&lt;br /&gt;
La luz emitida por este tipo de fuente presenta como ventaja fundamental que tiene naturaleza monocromática, estos dispositivos presentan una larga vida útil, alto rendimiento y requieren de una fuente de alimentación de muy baja potencia además presentan un costo excesivamente bajo. Sus principales desventajas son que emiten poca intensidad y que en ocasiones dos LEDs similares presentan diferencias en la longitud de onda de la luz que emiten.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== Flash ====&lt;br /&gt;
&lt;br /&gt;
Normalmente se utilizan para captar imágenes en movimiento, son fuentes de luz de gran intensidad luminosa que se ve poco afectada por la luz ambiente. Su principal desventaja es la fuente de alimentación las cuales deben estar bien sincronizadas con le sistema de captura de la imagen, presentan gran disipación de calor y pierden luminosidad con el tiempo. A su favor podemos decir que son fuentes extremadamente rápidas.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== Láser ====&lt;br /&gt;
&lt;br /&gt;
Muchos hemos escuchado hablar de lo extremadamente direccional de la luz emitida por este tipo de fuente además presenta la característica de ser monocromática. Se postula como una fuente de luz casi perfecta aunque su inconveniente principal es su costo y la necesidad de colocarle dispositivos auxiliares para realizar barridos de la zona de interés.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== Lámpara Incandescente  ====&lt;br /&gt;
&lt;br /&gt;
Su iluminación es bastante homogénea aunque presenta las dificultades de ser consumidoras y disipadoras de calor. No presentan tiempos de vida largo aunque si son muy baratas.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== Lámparas Fluorescentes ====&lt;br /&gt;
&lt;br /&gt;
Su iluminación es muy clara aunque presentan tiempos de vida cortos y las pérdidas de iluminación con el tiempo son acentuadas. El costo de este tipo de fuente es bajo.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
=== Tarjetas digitalizadoras.  ===&lt;br /&gt;
&lt;br /&gt;
La función de estas tarjetas es captar la señal que ofrece el sensor de imagen y convertirla a formato digital y entregarla al dispositivo inteligente, llámese PC o PLC, para su posterior análisis. Una muestra de este tipo de dispositivo se observa en la siguiente figura&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Las funciones principales que realiza este tipo de dispositivo son: &lt;br /&gt;
&lt;br /&gt;
#Recoger la señal analógica procedente de la cámara. &lt;br /&gt;
#Convertir la señal analógica en digital. &lt;br /&gt;
#Almacenar la señal digital en memoria.&lt;br /&gt;
&lt;br /&gt;
Las tarjetas comerciales incluyen: Memoria propia, funciones de procesado, conversores digital-analógico y analógico-digital e incluso presentación en pantalla de la imagen. &lt;br /&gt;
&lt;br /&gt;
&amp;amp;nbsp; &lt;br /&gt;
&lt;br /&gt;
=== &amp;amp;nbsp;Análisis de Imágenes Digitales.  ===&lt;br /&gt;
&lt;br /&gt;
Una vez captada la imagen por el sensor y transmitida al dispositivo donde será procesada, el paso siguiente es realizar la extracción de la información explícita que encierra dicha imagen, por ejemplo posición de los objetos, forma, textura etc.&amp;lt;br&amp;gt;Las técnicas utilizadas para realizar la extracción de esta información se dividen en cuatro grupos fundamentales: &lt;br /&gt;
&lt;br /&gt;
#Preprocesado. &lt;br /&gt;
#Segmentación. &lt;br /&gt;
#Descripción. &lt;br /&gt;
#Reconocimiento.&amp;amp;nbsp;&lt;br /&gt;
&lt;br /&gt;
==== Preprocesado  ====&lt;br /&gt;
&lt;br /&gt;
Este grupo de funciones se especializa en realizarle mejoras a la imagen captada, es decir resalta un sin número de características que conllevan a elevar la calidad de la imagen a la hora de ser analizada. Dentro de las funciones más comunes se encuentra la eliminación del ruido, el cambio de contraste y brillo, las transformaciones geométricas dentro de otras.&amp;lt;br&amp;gt;[Mazo, et.al,1996],[Perez,2000], [Rosenfeld,Kak,1982], [Gonzalez ,1979], son algunos trabajos que describen estas técnicas.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== Segmentación [[Image:SegmentacionInmagenes.jpg|frame|right]] ====&lt;br /&gt;
&lt;br /&gt;
La clasificación de la escena en sus partes u objetos es a lo que se le llama segmentación de la imagen. Estas técnicas se basan en encontrar donde se encuentran grupos de pixels que conformen un ente a clasificar (objeto), para ello estas técnicas se basan en los principios de discontinuidad y similitud. La siguiente figura nos visualiza una muestra metalográfica en la cual son detectados todos los granos de la misma y son etiquetados con diferentes colores.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[Rosenfeld, Davis, 1997], [Sugata,1996], [Smith,1996].&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== Descripción  ====&lt;br /&gt;
&lt;br /&gt;
Estas técnicas se basan en extraer, del ente a estudiar, las características que lo diferencian de los demás. Para realizar esta extracción de características es necesario realizar un estudio del objeto a analizar y extrae con cuidado las características invariantes que posea. Estas características deben ser, generalmente, independientes a rotaciones, escalamientos corrimientos de dicho objeto. Dentro de estas características podemos mencionar, área perímetro, circularidad, patrones de texturas, rasgos de formas, etc.&amp;lt;br&amp;gt;[Mazo, et.al,1996], [Rosenfeld,Daves,1997].&amp;amp;nbsp; &lt;br /&gt;
&lt;br /&gt;
==== Reconocimiento&amp;lt;br&amp;gt;  ====&lt;br /&gt;
&lt;br /&gt;
Una vez obtenidas las características que describen el objeto a estudiar, se pasa al reconocimiento del mismo, esto no es más que la clasificación, utilizando cualquier técnica conocida, llámese inteligencia artificial, búsquedas deductivas en base de datos, comparación con patrones etc.&amp;lt;br&amp;gt;Dentro de las técnicas más utilizadas se encuentra la utilización de redes neuronales artificiales, algoritmos genéticos y métodos estadísticos avanzados. [Amir,1997], [Bishop,1998], [Fukunaga,1990].&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Grupos de Investigación en Cuba&amp;lt;br&amp;gt; ==&lt;br /&gt;
&lt;br /&gt;
* Centro de Estudios de Electrónica y Tecnologías de la Información, CEETI. Facultad de Ingeniería Eléctrica, Universidad Central “Marta Abreu” de Las Villas&amp;lt;br&amp;gt;&lt;br /&gt;
* [http://www.cenatav.co.cu CENATAV - Centro de Aplicaciones de Tecnologías de Avanzada]&amp;lt;br&amp;gt;&lt;br /&gt;
* [http://www.ceda.com.cu Empresa de Automatización Integral, CEDAI]&amp;lt;br&amp;gt;&lt;br /&gt;
* Grupo de Automatización, Robótica Persepción (GARP), Facultad de Ingeniería Eléctrica, Universidad Central “Marta Abreu” de Las Villas&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Fuentes  ==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;amp;nbsp; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
[[Category:Sistemas_Automatizados]]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;/div&gt;</summary>
		<author><name>Moises cedai</name></author>
		
	</entry>
	<entry>
		<id>https://www.ecured.cu/index.php?title=Archivo:SistemaVisionArtificial.jpg&amp;diff=27992</id>
		<title>Archivo:SistemaVisionArtificial.jpg</title>
		<link rel="alternate" type="text/html" href="https://www.ecured.cu/index.php?title=Archivo:SistemaVisionArtificial.jpg&amp;diff=27992"/>
		<updated>2010-03-08T23:06:37Z</updated>

		<summary type="html">&lt;p&gt;Moises cedai: Diagrama que describe las diferentes partes de un sistema de visión artificial&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Sumario ==&lt;br /&gt;
Diagrama que describe las diferentes partes de un sistema de visión artificial&lt;br /&gt;
== Estado de copyright: ==&lt;br /&gt;
&lt;br /&gt;
== Fuente: ==&lt;br /&gt;
Tesis de Maestría de Moisés Herrera Vázquez&lt;/div&gt;</summary>
		<author><name>Moises cedai</name></author>
		
	</entry>
	<entry>
		<id>https://www.ecured.cu/index.php?title=Archivo:SegmentacionInmagenes.jpg&amp;diff=27991</id>
		<title>Archivo:SegmentacionInmagenes.jpg</title>
		<link rel="alternate" type="text/html" href="https://www.ecured.cu/index.php?title=Archivo:SegmentacionInmagenes.jpg&amp;diff=27991"/>
		<updated>2010-03-08T23:05:25Z</updated>

		<summary type="html">&lt;p&gt;Moises cedai: Ejemplo de etiquetado de Imágenes. Detección de granos en una muestra metalográfica&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Sumario ==&lt;br /&gt;
Ejemplo de etiquetado de Imágenes. Detección de granos en una muestra metalográfica&lt;br /&gt;
== Estado de copyright: ==&lt;br /&gt;
&lt;br /&gt;
== Fuente: ==&lt;br /&gt;
Tesis de Maestría de Moisés Herrera Vázquez&lt;/div&gt;</summary>
		<author><name>Moises cedai</name></author>
		
	</entry>
	<entry>
		<id>https://www.ecured.cu/index.php?title=Visi%C3%B3n_Artificial&amp;diff=27988</id>
		<title>Visión Artificial</title>
		<link rel="alternate" type="text/html" href="https://www.ecured.cu/index.php?title=Visi%C3%B3n_Artificial&amp;diff=27988"/>
		<updated>2010-03-08T22:56:48Z</updated>

		<summary type="html">&lt;p&gt;Moises cedai: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''{{Desarrollo}}''' &lt;br /&gt;
&lt;br /&gt;
'''Visión Artificial''' &lt;br /&gt;
&lt;br /&gt;
También conocida como ''Visión por Computadora.'' &lt;br /&gt;
&lt;br /&gt;
Se considera como el conjunto de todas aquellas técnicas y modelos que nos permitan la adquisición, procesamiento, análisis y explicación de cualquier tipo de información espacial del mundo real obtenida a través de imágenes digitales. &lt;br /&gt;
&lt;br /&gt;
== Otras Definiciones  ==&lt;br /&gt;
&lt;br /&gt;
''Visión Artificial es la ciencia que estudia, utilizando computadoras digitales, los procesos de obtención, caracterización, interpretación de la información procedentes de imágenes tomadas de un mundo tridimensional.'' &lt;br /&gt;
&lt;br /&gt;
''La Visión es un proceso de tratamiento de información que permite obtener una descripción simbólica del mundo real a partir de imágenes.'' &lt;br /&gt;
&lt;br /&gt;
&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
== Antecedentes  ==&lt;br /&gt;
&lt;br /&gt;
Dentro de los hitos más relevantes, en el modelado de la percepción visual, podemos mencionar los estudios de Kepler sobre el análisis geométrico de la formación de la imagen en el ojo, las apreciaciones de Newton sobre visión en color, Helmhotz (1910) sobre óptica fisiológica y Wertheimer (1912) sobre el movimiento aparente de agrupaciones de puntos o campos. Estos trabajos, unidos a otros, han establecido las bases de las actuales teorías de percepción visual. &amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Muchos concuerdan en que el primer gran paso se logró a principio del siglo XX con la aparición de la escuela de psicología de la Gelstat basada, principalmente, en los trabajos de Wertheimer. Esta escuela tuvo, dentro de sus resultados más relevantes, el establecer criterios que planteaban que características como la similaridad, homogeneidad, cercanía, etc, eran suficientes para tratar de explicar las propiedades de los mecanismos psicofísicos de la visión humana. Pero, esta aproximación con criterios tan globales se perdió años más tarde al no poder dar respuesta a nuevos interrogantes dentro del proceso de percepción visual&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Alrededor de los años 50, la investigación se orientó en la búsqueda de explicaciones al más bajo nivel celular, lo que originó una nueva corriente de ideas y teorías que con base en las potencialidades de las neuronas como células individuales. Se intentó explicar los mecanismos y propiedades de la visión humana, Hubel y Weisel (1962, 1968) y Barlow (1972). Sin embargo, esta aproximación tampoco pudo dar respuesta a los problemas más profundos de como nuestro mecanismo visual codifica, representa y reconoce distintos tipos de informaciones espaciales.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Dada la enorme complejidad mostrada por el sistema de visión humana y como consecuencia del lento avance de las teorías y algoritmos que explicaban su funcionamiento y propiedades se intentó abordar estos problemas de formas más directas a partir de tres enfoques distintos. El primero se basó en el desarrollo de técnicas empíricas basadas en criterios de tipo matemático que aproximaban estos problemas de estimación de bordes y líneas usando distintos criterios. Dentro de este Grupo se encontraba Azriel Rosenfeld. Estas aproximaciones crearon algunas ideas interesantes como el uso simultáneo de operadores de distinto tamaño, pero tuvo el gran inconveniente de no poder proponer métodos para la evaluación de los distintos algoritmos.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
El segundo enfoque se basó en profundizar en el problema reduciendo su alcance a un mundo de bloques blancos iluminados sobre fondo negro. Los bloques podían tener cualquier forma, siempre que todas sus superficies fueran planas y todos sus bordes rectos. Este modelo funcionó perfectamente en ciertos trabajos como los realizados por Waltz (1975) y Mackworth (1973); ellos resolvieron interpretaciones de dibujos lineales a partir de estudios de imágenes de prismas sólidos. De hecho, la simplificación impuesta en este modelo se había hecho con el razonamiento de que presentado un conocimiento profundo del problema en un mundo simplificado permitiría más tarde extrapolar dichos conocimientos a mundos más complejos.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
En años más recientes se enfrascaron en idear un modelo más completo de la percepción visual que eliminara las limitaciones de los anteriores, esta especialización trajo consigo el tercer enfoque. Dentro de los trabajos más relevantes podemos mencionar los realizados por Horn (1975, 1977) sobre la formación de la imagen. En ellos Horn establece modelos de cálculo que expresan la formación de la imagen a través de ecuaciones diferenciales que relacionan los valores de intensidad de la imagen con la geometría de la superficie tras estudiar con gran detalle el modo en que la iluminación, la geometría, la reflectancia de la superficie y el punto de vista del observador actuaban de forma conjunta para crear los valores de intensidad medidos en la imagen.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Fue entonces cuando diversos investigadores, dentro de los cuales se destacó Julesz (1975), demostraron que los mecanismos de la visión estereoscópica son realizados en la retina en una etapa muy previa del proceso de visión, y que el mecanismo de visión humana tiene la posibilidad de interpretar imágenes en 3D usando solamente las informaciones sobre profundidad, distancia y textura.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Estos estudios lograron establecer las denominadas teorías de tipo modular, las cuales representaban el proceso de visión como la sucesión de transformaciones que a partir de la escena del mundo externo, produce una descripción útil al observador sin estar entorpecida por la información irrelevante. (Marr, 1976; Marr y Nishihara, 1978). &amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
La mayoría de los estudiosos del tema concuerdan en que a las técnicas asociadas al estudio de los sistemas de visión artificial debe considerarse como parte de la Inteligencia Artificial por cuanto modelan actividades del cerebro humano.&amp;lt;br&amp;gt; En los últimos años se han realizado un sin número de trabajos en el campo de la visión artificial. Institutos como el MIT (Massachusetts Institute of Technology), llevaron la delantera durante los años 70 y marcaron pautas en los estudios en estos temas. Uno de los investigadores más relevantes de este instituto resultó ser David Marr, el cual estableció una metodología modular tipo “Botton/Up”. Para lograr realizar el procesamiento de una imagen percibida, Marr planteó tres grandes bloques para el procesamiento de la información. &amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
#Cálculo del esbozo primitivo como estructura informacional que caracteriza los distintos rasgos básicos (bordes, líneas, arcos, ceros, manchas, etc) presentes en la imagen de intensidades (nivel 2D). &lt;br /&gt;
#Construcción de las superficies presentes en la imagen desde el punto de vista del observador, a partir de la informaciones suministradas por el esbozo primitivo y las informaciones tridimensionales proporcionadas por las estereoscopía, sombreado, reflectancia, iluminación, etc. &lt;br /&gt;
#Construcción del modelo que representa a los objetos en el espacio y permite catalogarlos y compararlos con información previamente almacenada (nivel 3D).&lt;br /&gt;
&lt;br /&gt;
Marr forjó las bases en el campo del estudio de los mecanismos de la visión humana y el análisis de imágenes digitales, sus principales hitos se basaron en realizar métodos para la descomposición de la información en niveles 2D, 3D y sus esquemas de representación de la información en cada uno de estos niveles.&amp;lt;br&amp;gt;Otros estudiosos se dedicaron a profundizar en estos estudios dentro de los que podemos mencionar a Nishihara el cual planteó en 1978 que la información acerca de la geometría y la reflectancia de las superficies visibles se codifica en la imagen de varias formas y puede ser decodificada por procesos casi independientes.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La comprensión de esta frase fue el comienzo que dio lugar a la aparición de múltiples teorías sobre los procesos de decodificación. Muchos de estos procesos de decodificación permanecen hoy en día como áreas activas de investigación. De entre los más importantes podemos citar: la estereoscopía, la derivación de la estructura a partir del movimiento aparente, la selectividad de dirección, el cálculo de la profundidad a partir del flujo óptico, el cálculo de la orientación de la superficie a partir de su textura, el cálculo de la forma a partir de la sombra, la estereoscopía fotométrica, etc. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Con la llegada de las primeras computadoras digitales en los años 50-60, se comienza a necesitar de disponer de técnicas para la transmisión y procesamiento de imágenes desde satélite, uno de los empujes dados a estas técnicas de trasmisión, realce y restauración de imágenes fueron realizados por el Jet Propulsion Laboratory (EEUU), encargado del procesamiento de las imágenes mandadas por los primeros satélites y por el National Institute of Health (EEUU) dedicado al estudio de imágenes de rayos X, microscopía óptica y electrónica. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
No cabe la menor duda que el MIT junto con la Universidad de Stanford se perfilan como los centros más sobresalientes en los estudios de visión artificial, dentro de sus trabajos más relevantes se pueden mencionar la visión aplicada a robótica bajo el proyecto Hand-Eye y el llamado proyecto UIS (Image Understanding System), este último proyecto marca el comienzo del uso de estas técnicas en aplicaciones de tipo militar. Por otra parte países como Japón desarrollaron el llamado proyecto PIPS (Pattern-Information Processing System), el cual impulsó el desarrollo del análisis de imágenes.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Los estudios realizados por los países de Europa no se quedaron detrás cabe destacar la investigación desarrollada, durante los años setenta, por los profesores G. Matheron y J. Serra de la École National Supérieure des Mines de Paris (Francia) el cual ofreció aportes a la geometría integral y el cálculo de probabilidades para la caracterización y medición de formas, esta metodología se denomina Morfología Matemática y ha tenido sus principales áreas de aplicación en los campos de la geología, la biología y la medicina. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
A partir de este momento se observar el comienzo de cierta especialización en las técnicas existentes. Así, comienzan a aparecer los conceptos de técnicas para el procesamiento de imágenes digitales como el conjunto de todas aquellas técnicas asociadas a la captura, codificación y representación de las imágenes que no introducen sobre las mismas ningún tipo de interpretación, y técnicas para el análisis de imágenes digitales, técnicas de visión por computadora o visión mediante robot como acepciones que se refieren a aquellas técnicas que tratan de extraer la información presente en la imagen con el fin de hacer una interpretación de las escena representada por dicha imagen. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sistema de Visión Humano  ==&lt;br /&gt;
&lt;br /&gt;
¿Porqué no realizar un modelado perfecto del sistema de visión humano e implementarlo en una computadora?&amp;lt;br&amp;gt;La respuesta no es sencilla, gran cantidad de estudios demuestran claramente que nuestro sistema visual lejos de ser perfecto contiene una serie de irregularidades que no deben ser modeladas para lograr un sistema artificial que supere al humano. No existe ninguna razón para modelar los errores de nuestro sistema.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Para realizar un bosquejo de la argumentación anterior realizaremos un estudio de nuestro sistema de visión y observaremos los puntos débiles y sus fortalezas.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Todo sistema de visión está compuesto por tres partes fundamentales: &lt;br /&gt;
#Las señales que percibimos.&amp;amp;nbsp; &lt;br /&gt;
#El medio en que se transmiten. &lt;br /&gt;
#Los mecanismos de decodificación del sistema receptor y/o cerebro.&lt;br /&gt;
&lt;br /&gt;
Una imagen puede describirse como un mapa espacial que sobre una determinada información que nos ofrece algún tipo de sensor. Ejemplos de este tipo de mapas son nuestras percepciones de una determinada situación o escena a partir de nuestros sistemas sensoriales (vista, oído, tacto, gusto, y olfato). Para centrar aun más nuestro estudio nos preguntaremos sobre el significado real de lo que significa ver o adquirir información a través de un sistema sensorial de tipo visual. Si nos centramos en el modelo visual humano asociaremos el concepto de ver con el de percibir una señal luminosa con una intensidad mínima y en un rango de frecuencia espectral dado. Sin embargo hoy en día son bien conocidas las posibilidades de obtener imágenes a partir de sensores que trabajen en condiciones muy distintas de iluminación a las que es sensible el ojo humano, por ejemplo, el espectro infrarrojo, rayos X, etc. Así pues, la posibilidad de formar imágenes debemos asociarla al tipo de sensor usado y a las posibilidades de que dicho sensor sea capaz de captar y decodificar la información que le llega. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Una vez que tenemos conocimiento de la composición de la señal a analizar podemos pasar al estudio del sensor que debe captar la información. En el caso de nuestro sistema de visión, el ojo se perfila como nuestro sensor del espectro visible.&amp;amp;nbsp;El ojo es casi una esfera de unos 20mm de diámetro, formada por un conjunto de membranas denominadas cornea, esclera, coroide y retina. La cornea y la esclera, constituyen las envolturas externas anterior y posterior del ojo respectivamente. La capa coroidal además de alimentar el ojo a través de sus vasos sanguíneos, tiene la misión de absolver las luces extrañas que entran el ojo así como de amortiguar el efecto de dispersión de la luz dentro del globo ocular. El iris o diafragma esta situado en la parte anterior del coroide, y tiene como misión controlar la cantidad de luz que entra en el ojo. Para ello, la pupila o parte central del iris puede cambiar de tamaño en función de la luminosidad incidente desde 2mm a 8mm de diámetro. &amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
[[Image:Ojo.JPG|frame|center|666x384px|Esquema descriptor del ojo humano]]&amp;amp;nbsp; &lt;br /&gt;
&lt;br /&gt;
La lente del ojo esta formada por capas concéntricas de células fibrosas y esta sujeta al coroide a través de fibras, esta compuesta principalmente por agua (60%-70%), grasa 6% y proteínas. En la lente se absorbe cerca del 8% del espectro de luz visible así como una gran proporción de luz infrarroja y ultravioleta. &amp;lt;br&amp;gt;La membrana más interna del ojo es la retina que cubre toda la pared interna del ojo. Cuando la luz llega al ojo la imagen que transporta se forma en la retina por la sensibilización de dos clases de receptores: los bastones y los conos. &amp;lt;br&amp;gt;El número de conos existentes en un ojo esta entre 6-7 millones y su situación dentro del ojo se concentra alrededor de un punto llamado fóvea. &lt;br /&gt;
&lt;br /&gt;
La misión de los conos dentro del ojo es doble. Por un lado son responsables de la detección del color y por otro ayudan a resolver los detalles finos de la imagen. &amp;lt;br&amp;gt;Cuando una persona quiere resolver detalles finos en una imagen intenta que esta se forme en su retina alrededor de la fóvea, consiguiendo por tanto, que los conos sean mayoritariamente los receptores de la luz. La visión a través de los conos se denomina visión fotocópica o de luz brillante. &amp;lt;br&amp;gt;Por otro lado, el número de bastones existentes en un ojo es muy superior al de conos y esta entre 75-150 millones. Los bastones se distribuyen sobre toda la retina y al igual que los conos tienen una doble misión. Por un lado son responsables de dar una impresión general del campo de visión y por otro son responsables de la sensibilidad a niveles bajos de iluminación. Los bastones no son sensibles al color. &lt;br /&gt;
&lt;br /&gt;
Un objeto que a la luz del día tiene colores vivos, observado a la luz de la luna aparece sin colores, esto es debido a que tan solo los bastones están estimulados. A la visión a través de bastones se le denomina visión escotópica o de luz tenue.&amp;lt;br&amp;gt;El ojo humano es capaz de adaptarse en un rango de valores de iluminación de aproximadamente&amp;amp;nbsp;10 órdenes de magnitud. El punto más importante a la hora de interpretar este enorme rango es el hecho de que el ojo no opera de forma simultánea sobre todo el rango si no que en cada caso y en función de la luminosidad medía existente se hace sensible a un rango alrededor de dicho valor medio. Este efecto de adaptación se denomina adaptación al brillo. Numerosos experimentos han mostrado que el brillo subjetivo percibido es una función logarítmica de la intensidad de luz incidente en el ojo. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
El sistema de visión humano como otras partes de la anatomía del cuerpo humano es fruto de la evolución. Como consecuencia de esto el sistema de visión humano responde a unos patrones mejor que otros, por otro lado puede llegar a conclusiones erradas al interpretar situaciones ambiguas por la existencia de ilusiones visuales, ambigüedades e inconsistencias.Las ambigüedades son muy frecuentes y se basan en que una figura puede tener más de una posible interpretación. Múltiples interpretaciones pueden coexistir o una puede dominar. &amp;lt;br&amp;gt;&lt;br /&gt;
Los investigadores han demostrado que inferimos de nuestras imágenes en la retina más de lo que de verdad está soportado por la geometría y física de la formación de imágenes. &amp;lt;br&amp;gt;Helmhotz en su libro Handbook of Physiological Optics publicado a mediados del siglo pasado expresó que cada imagen es una imagen de algo sólo para aquel que conoce como leerla, y que está capacitado con la ayuda de la imagen a formar una idea de la cosa. &amp;lt;br&amp;gt;&lt;br /&gt;
Esta afirmación nos muestra que el sistema visual humano no realiza inferencias precisas y exactas basadas en la física de la formación de imágenes en el ojo, sino que el sistema visual invoca reglas que se obtienen y están dirigidas por la experiencia previa del individuo y tal vez por la especie. &amp;lt;br&amp;gt;Como se pudo apreciar nuestro sistema de visión ha evolucionado y presenta sistemas de adaptación increíbles a los cambios de iluminación entre otras de sus fortalezas, sin embargo también presenta debilidades que no deben ser tomadas en cuenta a la hora de realizar un sistema que lo simule.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
== Sistema de Visión Artificial  ==&lt;br /&gt;
&lt;br /&gt;
La necesidad de ver artificialmente evoluciona a medida que el ser humano es capaz de estudiar su propio cuerpo y demostrar que cerca del 60% de la corteza cerebral del hombre se dedica a procesar la información visual.&amp;lt;br&amp;gt;Los sistemas de visión artificial han evolucionado poco a poco a medida que la tecnología ha evolucionado y ha permitido la creación de sensores, computadoras y algoritmos de procesamiento más potentes.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
De forma básica un sistema de visión artificial está conformado por varios subsistemas capaces de realizar dos funciones básicas:&amp;lt;br&amp;gt;&lt;br /&gt;
#Captar la información de la escena real mediante la proyección en una imagen.&amp;lt;br&amp;gt;&lt;br /&gt;
#Analizar las imágenes para extraer la información que contienen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Los sensores, la iluminación y las tarjetas digitalizadoras son los dispositivos más importantes en la captura de la información de las escenas reales; en cambio el mayor peso del análisis de las imágenes captadas se encuentra a nivel de software aunque en ocasiones se encuentran dispositivos que realizan la extracción de la información utilizando hardware especializado, un ejemplo de esto son las tarjetas digitalizadoras que contienen incorporadas funciones de procesamiento como es el caso de filtrado para detectar contornos construidas por la compañía [http://www.matrox.com Matrox]. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Figura de fases de un sistema de visión artificial.&lt;br /&gt;
&lt;br /&gt;
=== Sensores.  ===&lt;br /&gt;
&lt;br /&gt;
Existe gran diversidad de sensores a partir de los cuales se pueden obtener imágenes. Su principal clasificación es a partir de la naturaleza de la señal que conforman la imagen, dentro de ellos podemos mencionar, los sensores de Rayos X, Rayos Gamma, luz ultravioleta, infrarroja, etc. Por otra parte podemos mencionar los sensores basados en el principio del eco como es el caso de los radares y los equipos de ultrasonido.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La variedad de sensores utilizados en sistemas de visión artificial se ha expandido hasta dominios insospechados en este aspecto estos sistemas superan ampliamente al sistema de visión humano el cual sólo puede tomar información visual dentro del espectro visible. Sin embargo no cabe duda que los sensores más utilizados, en aplicaciones que requieran de este tipo de sistemas, son la cámaras ya sean estas fotográficas o de video.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Las cámaras son las encargadas de captar la información luminosa de la escena a analizar y convertirla en una señal, analógica o digital, para ser utilizada por los sistemas de procesamiento.&amp;lt;br&amp;gt;Existen varios tipos de cámaras digitales, las cuales se dividen en función de: &lt;br /&gt;
&lt;br /&gt;
*Modo de captar la información de la escena. Dentro de esta categoría se pueden mencionar las cámaras basadas en tecnología Vidicom, Orticom y CCD. &lt;br /&gt;
*Modo de exploración. Aquí se encuentran las cámaras de exploración de línea y área. &lt;br /&gt;
*Estado sólido y no sólido.&lt;br /&gt;
&lt;br /&gt;
=== Iluminación.  ===&lt;br /&gt;
&lt;br /&gt;
La iluminación de una escena es uno de los puntos sensibles en un sistema de visión. Las fuentes de luz se deben escoger en función de la aplicación que se desea realizar, una fuente mal escogida puede traer consigo un sin número de anormalidades difíciles de eliminar como son el caso de las sombras, las reflexiones y el bajo contraste. Es por ello que el conocimiento del tipo de iluminación a utilizar se debe tener muy en cuenta.&amp;lt;br&amp;gt;&lt;br /&gt;
====Iluminación tipo LED====&lt;br /&gt;
La luz emitida por este tipo de fuente presenta como ventaja fundamental que tiene naturaleza monocromática, estos dispositivos presentan una larga vida útil, alto rendimiento y requieren de una fuente de alimentación de muy baja potencia además presentan un costo excesivamente bajo. Sus principales desventajas son que emiten poca intensidad y que en ocasiones dos LEDs similares presentan diferencias en la longitud de onda de la luz que emiten.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Flash====&lt;br /&gt;
Normalmente se utilizan para captar imágenes en movimiento, son fuentes de luz de gran intensidad luminosa que se ve poco afectada por la luz ambiente. Su principal desventaja es la fuente de alimentación las cuales deben estar bien sincronizadas con le sistema de captura de la imagen, presentan gran disipación de calor y pierden luminosidad con el tiempo. A su favor podemos decir que son fuentes extremadamente rápidas.&amp;lt;br&amp;gt;&lt;br /&gt;
====Láser====&lt;br /&gt;
Muchos hemos escuchado hablar de lo extremadamente direccional de la luz emitida por este tipo de fuente además presenta la característica de ser monocromática. Se postula como una fuente de luz casi perfecta aunque su inconveniente principal es su costo y la necesidad de colocarle dispositivos auxiliares para realizar barridos de la zona de interés.&amp;lt;br&amp;gt;&lt;br /&gt;
====Lámpara Incandescente ==== &lt;br /&gt;
Su iluminación es bastante homogénea aunque presenta las dificultades de ser consumidoras y disipadoras de calor. No presentan tiempos de vida largo aunque si son muy baratas.&amp;lt;br&amp;gt;&lt;br /&gt;
====Lámparas Fluorescentes====&lt;br /&gt;
Su iluminación es muy clara aunque presentan tiempos de vida cortos y las pérdidas de iluminación con el tiempo son acentuadas. El costo de este tipo de fuente es bajo.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
=== Tarjetas digitalizadoras.  ===&lt;br /&gt;
&lt;br /&gt;
La función de estas tarjetas es captar la señal que ofrece el sensor de imagen y convertirla a formato digital y entregarla al dispositivo inteligente, llámese PC o PLC, para su posterior análisis. Una muestra de este tipo de dispositivo se observa en la siguiente figura&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Las funciones principales que realiza este tipo de dispositivo son: &lt;br /&gt;
&lt;br /&gt;
#Recoger la señal analógica procedente de la cámara. &lt;br /&gt;
#Convertir la señal analógica en digital. &lt;br /&gt;
#Almacenar la señal digital en memoria. &lt;br /&gt;
&lt;br /&gt;
Las tarjetas comerciales incluyen: Memoria propia, funciones de procesado, conversores digital-analógico y analógico-digital e incluso presentación en pantalla de la imagen.&lt;br /&gt;
&lt;br /&gt;
&amp;amp;nbsp; &lt;br /&gt;
&lt;br /&gt;
=== &amp;amp;nbsp;Análisis de Imágenes Digitales.  ===&lt;br /&gt;
&lt;br /&gt;
Una vez captada la imagen por el sensor y transmitida al dispositivo donde será procesada, el paso siguiente es realizar la extracción de la información explícita que encierra dicha imagen, por ejemplo posición de los objetos, forma, textura etc.&amp;lt;br&amp;gt;Las técnicas utilizadas para realizar la extracción de esta información se dividen en cuatro grupos fundamentales: &lt;br /&gt;
&lt;br /&gt;
#Preprocesado. &lt;br /&gt;
#Segmentación. &lt;br /&gt;
#Descripción. &lt;br /&gt;
#Reconocimiento.&amp;amp;nbsp;&lt;br /&gt;
&lt;br /&gt;
==== Preprocesado  ====&lt;br /&gt;
&lt;br /&gt;
Este grupo de funciones se especializa en realizarle mejoras a la imagen captada, es decir resalta un sin número de características que conllevan a elevar la calidad de la imagen a la hora de ser analizada. Dentro de las funciones más comunes se encuentra la eliminación del ruido, el cambio de contraste y brillo, las transformaciones geométricas. &amp;lt;br&amp;gt;[Mazo, et.al,1996],[Perez,2000], [Rosenfeld,Kak,1982], [Gonzalez ,1979], son algunos trabajos que describen estas técnicas.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== Segmentación  ====&lt;br /&gt;
&lt;br /&gt;
La clasificación de la escena en sus partes u objetos es a lo que se le llama segmentación de la imagen. Estas técnicas se basan en encontrar donde se encuentran grupos de pixels que conformen un ente a clasificar (objeto), para ello estas técnicas se basan en los principios de discontinuidad y similitud. [Rosenfeld, Davis, 1997], [Sugata,1996], [Smith,1996].&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== Descripción  ====&lt;br /&gt;
&lt;br /&gt;
Estas técnicas se basan en extraer, del ente a estudiar, las características que lo diferencian de los demás. Para realizar esta extracción de características es necesario realizar un estudio del objeto a analizar y extrae con cuidado las características invariantes que posea. Estas características deben ser, generalmente, independientes a rotaciones, escalamientos corrimientos de dicho objeto. Dentro de estas características podemos mencionar, área perímetro, circularidad, patrones de texturas, rasgos de formas, etc.&amp;lt;br&amp;gt;[Mazo, et.al,1996], [Rosenfeld,Daves,1997].&amp;amp;nbsp; &lt;br /&gt;
&lt;br /&gt;
==== Reconocimiento&amp;lt;br&amp;gt;  ====&lt;br /&gt;
&lt;br /&gt;
Una vez obtenidas las características que describen el objeto a estudiar, se pasa al reconocimiento del mismo, esto no es más que la clasificación, utilizando cualquier técnica conocida, llámese inteligencia artificial, búsquedas deductivas en base de datos, comparación con patrones etc.&amp;lt;br&amp;gt;Dentro de las técnicas más utilizadas se encuentra la utilización de redes neuronales artificiales, algoritmos genéticos y métodos estadísticos avanzados. [Amir,1997], [Bishop,1998], [Fukunaga,1990].&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;amp;nbsp; &lt;br /&gt;
&lt;br /&gt;
== Fuentes  ==&lt;br /&gt;
&lt;br /&gt;
&amp;amp;nbsp; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
[[Category:Sistemas_Automatizados]]&lt;/div&gt;</summary>
		<author><name>Moises cedai</name></author>
		
	</entry>
	<entry>
		<id>https://www.ecured.cu/index.php?title=Visi%C3%B3n_Artificial&amp;diff=27977</id>
		<title>Visión Artificial</title>
		<link rel="alternate" type="text/html" href="https://www.ecured.cu/index.php?title=Visi%C3%B3n_Artificial&amp;diff=27977"/>
		<updated>2010-03-08T22:37:55Z</updated>

		<summary type="html">&lt;p&gt;Moises cedai: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''{{Desarrollo}}''' &lt;br /&gt;
&lt;br /&gt;
'''Visión Artificial''' &lt;br /&gt;
&lt;br /&gt;
También conocida como ''Visión por Computadora.'' &lt;br /&gt;
&lt;br /&gt;
Se considera como el conjunto de todas aquellas técnicas y modelos que nos permitan la adquisición, procesamiento, análisis y explicación de cualquier tipo de información espacial del mundo real obtenida a través de imágenes digitales. &lt;br /&gt;
&lt;br /&gt;
== Otras Definiciones  ==&lt;br /&gt;
&lt;br /&gt;
''Visión Artificial es la ciencia que estudia, utilizando computadoras digitales, los procesos de obtención, caracterización, interpretación de la información procedentes de imágenes tomadas de un mundo tridimensional.'' &lt;br /&gt;
&lt;br /&gt;
''La Visión es un proceso de tratamiento de información que permite obtener una descripción simbólica del mundo real a partir de imágenes.'' &lt;br /&gt;
&lt;br /&gt;
&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
== Antecedentes  ==&lt;br /&gt;
&lt;br /&gt;
Dentro de los hitos más relevantes, en el modelado de la percepción visual, podemos mencionar los estudios de Kepler sobre el análisis geométrico de la formación de la imagen en el ojo, las apreciaciones de Newton sobre visión en color, Helmhotz (1910) sobre óptica fisiológica y Wertheimer (1912) sobre el movimiento aparente de agrupaciones de puntos o campos. Estos trabajos, unidos a otros, han establecido las bases de las actuales teorías de percepción visual. &amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Muchos concuerdan en que el primer gran paso se logró a principio del siglo XX con la aparición de la escuela de psicología de la Gelstat basada, principalmente, en los trabajos de Wertheimer. Esta escuela tuvo, dentro de sus resultados más relevantes, el establecer criterios que planteaban que características como la similaridad, homogeneidad, cercanía, etc, eran suficientes para tratar de explicar las propiedades de los mecanismos psicofísicos de la visión humana. Pero, esta aproximación con criterios tan globales se perdió años más tarde al no poder dar respuesta a nuevos interrogantes dentro del proceso de percepción visual&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Alrededor de los años 50, la investigación se orientó en la búsqueda de explicaciones al más bajo nivel celular, lo que originó una nueva corriente de ideas y teorías que con base en las potencialidades de las neuronas como células individuales. Se intentó explicar los mecanismos y propiedades de la visión humana, Hubel y Weisel (1962, 1968) y Barlow (1972). Sin embargo, esta aproximación tampoco pudo dar respuesta a los problemas más profundos de como nuestro mecanismo visual codifica, representa y reconoce distintos tipos de informaciones espaciales.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Dada la enorme complejidad mostrada por el sistema de visión humana y como consecuencia del lento avance de las teorías y algoritmos que explicaban su funcionamiento y propiedades se intentó abordar estos problemas de formas más directas a partir de tres enfoques distintos. El primero se basó en el desarrollo de técnicas empíricas basadas en criterios de tipo matemático que aproximaban estos problemas de estimación de bordes y líneas usando distintos criterios. Dentro de este Grupo se encontraba Azriel Rosenfeld. Estas aproximaciones crearon algunas ideas interesantes como el uso simultáneo de operadores de distinto tamaño, pero tuvo el gran inconveniente de no poder proponer métodos para la evaluación de los distintos algoritmos.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
El segundo enfoque se basó en profundizar en el problema reduciendo su alcance a un mundo de bloques blancos iluminados sobre fondo negro. Los bloques podían tener cualquier forma, siempre que todas sus superficies fueran planas y todos sus bordes rectos. Este modelo funcionó perfectamente en ciertos trabajos como los realizados por Waltz (1975) y Mackworth (1973); ellos resolvieron interpretaciones de dibujos lineales a partir de estudios de imágenes de prismas sólidos. De hecho, la simplificación impuesta en este modelo se había hecho con el razonamiento de que presentado un conocimiento profundo del problema en un mundo simplificado permitiría más tarde extrapolar dichos conocimientos a mundos más complejos.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
En años más recientes se enfrascaron en idear un modelo más completo de la percepción visual que eliminara las limitaciones de los anteriores, esta especialización trajo consigo el tercer enfoque. Dentro de los trabajos más relevantes podemos mencionar los realizados por Horn (1975, 1977) sobre la formación de la imagen. En ellos Horn establece modelos de cálculo que expresan la formación de la imagen a través de ecuaciones diferenciales que relacionan los valores de intensidad de la imagen con la geometría de la superficie tras estudiar con gran detalle el modo en que la iluminación, la geometría, la reflectancia de la superficie y el punto de vista del observador actuaban de forma conjunta para crear los valores de intensidad medidos en la imagen.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Fue entonces cuando diversos investigadores, dentro de los cuales se destacó Julesz (1975), demostraron que los mecanismos de la visión estereoscópica son realizados en la retina en una etapa muy previa del proceso de visión, y que el mecanismo de visión humana tiene la posibilidad de interpretar imágenes en 3D usando solamente las informaciones sobre profundidad, distancia y textura.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Estos estudios lograron establecer las denominadas teorías de tipo modular, las cuales representaban el proceso de visión como la sucesión de transformaciones que a partir de la escena del mundo externo, produce una descripción útil al observador sin estar entorpecida por la información irrelevante. (Marr, 1976; Marr y Nishihara, 1978). &amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
La mayoría de los estudiosos del tema concuerdan en que a las técnicas asociadas al estudio de los sistemas de visión artificial debe considerarse como parte de la Inteligencia Artificial por cuanto modelan actividades del cerebro humano.&amp;lt;br&amp;gt; En los últimos años se han realizado un sin número de trabajos en el campo de la visión artificial. Institutos como el MIT (Massachusetts Institute of Technology), llevaron la delantera durante los años 70 y marcaron pautas en los estudios en estos temas. Uno de los investigadores más relevantes de este instituto resultó ser David Marr, el cual estableció una metodología modular tipo “Botton/Up”. Para lograr realizar el procesamiento de una imagen percibida, Marr planteó tres grandes bloques para el procesamiento de la información. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
#Cálculo del esbozo primitivo como estructura informacional que caracteriza los distintos rasgos básicos (bordes, líneas, arcos, ceros, manchas, etc) presentes en la imagen de intensidades (nivel 2D).&lt;br /&gt;
#Construcción de las superficies presentes en la imagen desde el punto de vista del observador, a partir de la informaciones suministradas por el esbozo primitivo y las informaciones tridimensionales proporcionadas por las estereoscopía, sombreado, reflectancia, iluminación, etc.&lt;br /&gt;
#Construcción del modelo que representa a los objetos en el espacio y permite catalogarlos y compararlos con información previamente almacenada (nivel 3D).&lt;br /&gt;
&lt;br /&gt;
Marr forjó las bases en el campo del estudio de los mecanismos de la visión humana y el análisis de imágenes digitales, sus principales hitos se basaron en realizar métodos para la descomposición de la información en niveles 2D, 3D y sus esquemas de representación de la información en cada uno de estos niveles.&amp;lt;br&amp;gt;Otros estudiosos se dedicaron a profundizar en estos estudios dentro de los que podemos mencionar a Nishihara el cual planteó en 1978 que la información acerca de la geometría y la reflectancia de las superficies visibles se codifica en la imagen de varias formas y puede ser decodificada por procesos casi independientes.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br&amp;gt;La comprensión de esta frase fue el comienzo que dio lugar a la aparición de múltiples teorías sobre los procesos de decodificación. Muchos de estos procesos de decodificación permanecen hoy en día como áreas activas de investigación. De entre los más importantes podemos citar: la estereoscopía, la derivación de la estructura a partir del movimiento aparente, la selectividad de dirección, el cálculo de la profundidad a partir del flujo óptico, el cálculo de la orientación de la superficie a partir de su textura, el cálculo de la forma a partir de la sombra, la estereoscopía fotométrica, etc. &amp;lt;br&amp;gt;Los estudios de Marr son considerados los de mayor influencia el desarrollo de las técnicas del análisis de las imágenes digitales. A las teorías desarrolladas por él y sus colaboradores le prosiguieron investigaciones realizadas por estudiosos de la talla de Tenenbaum y Barrow (1976), los cuales hicieron propuestas alternativas en el sentido de considerar modelos en los que el proceso de transformación de la información esta definido por un ciclo en el que intervienen por un lado los datos observados, es decir un equivalente al cálculo de las informaciones del esbozo primitivo en el modelo de Marr y por otro lado, un proceso dirigido desde la información ya conocida tratando de ajustar las observaciones a esta información. &amp;lt;br&amp;gt;En particular los trabajos de Terzopoulos (1983,1988) y Blake y Zisserman (1987) sobre regularización y reconstrucción de superficies y aquellos otros basados en modelos de segmentación basados en campos aleatorios de Markov, van en esta línea. &amp;lt;br&amp;gt;Como consecuencia de los muchos trabajos desarrollados a partir de las teorías de Marr y sus colaboradores, se ha iniciado un nuevo campo de especialidad denominado Visión Computacional que trata de explicar los mecanismos de cálculo de la visión humana usando para ello procedimientos y métodos de las teorías matemáticas de procesamiento de información. &amp;lt;br&amp;gt;De lo anteriormente mencionado, se deduce que si bien el estudio de los mecanismos de la visión humana ha tenido larga tradición en la historia de la ciencia no ha sido hasta la aparición de las computadoras digitales que se ha logrado implementar modelos fiables del sistema de visión que conlleven a la implementación de sistemas artificiales que resuelvan problemas como los humanos.&amp;lt;br&amp;gt;El procesamiento de imágenes nace en el momento en que se dispone de recursos tecnológicos para lograr captar y manipular grandes cantidades de información espacial en forma de matrices de valores. El primer hito histórico del uso de estas técnicas se ubicó en los años veinte en la transmisión de imágenes de fotografías a través de cable submarino entre Londres y New York, con esto se logró que el tiempo entre emisión y recepción de las imágenes se redujese de una semana por barco a tres horas por cable.&amp;lt;br&amp;gt;Esto se considera como la base sobre la cual se desarrollaron, durante algún tiempo, las técnicas de codificación y reproducción de las imágenes logrando pasar en la representación de imágenes de cinco a quince tonos de gris. &amp;lt;br&amp;gt;Con la llegada de las primeras computadoras digitales en los años 50-60, se comienza a necesitar de disponer de técnicas para la transmisión y procesamiento de imágenes desde satélite, uno de los empujes dados a estas técnicas de trasmisión, realce y restauración de imágenes fueron realizados por el Jet Propulsion Laboratory (EEUU), encargado del procesamiento de las imágenes mandadas por los primeros satélites y por el National Institute of Health (EEUU) dedicado al estudio de imágenes de rayos X, microscopía óptica y electrónica. &amp;lt;br&amp;gt;No cabe la menor duda que el MIT junto con la Universidad de Stanford se perfilan como los centros más sobresalientes en los estudios de visión artificial, dentro de sus trabajos más relevantes se pueden mencionar la visión aplicada a robótica bajo el proyecto Hand-Eye y el llamado proyecto UIS (Image Understanding System), este último proyecto marca el comienzo del uso de estas técnicas en aplicaciones de tipo militar. Por otra parte países como Japón desarrollaron el llamado proyecto PIPS (Pattern-Information Processing System), el cual impulsó el desarrollo del análisis de imágenes.&amp;lt;br&amp;gt;Los estudios realizados por los países de Europa no se quedaron detrás cabe destacar la investigación desarrollada, durante los años setenta, por los profesores G. Matheron y J. Serra de la École National Supérieure des Mines de Paris (Francia) el cual ofreció aportes a la geometría integral y el cálculo de probabilidades para la caracterización y medición de formas, esta metodología se denomina Morfología Matemática y ha tenido sus principales áreas de aplicación en los campos de la geología, la biología y la medicina. &amp;lt;br&amp;gt;A partir de este momento se observar el comienzo de cierta especialización en las técnicas existentes. Así, comienzan a aparecer los conceptos de técnicas para el procesamiento de imágenes digitales como el conjunto de todas aquellas técnicas asociadas a la captura, codificación y representación de las imágenes que no introducen sobre las mismas ningún tipo de interpretación, y técnicas para el análisis de imágenes digitales, técnicas de visión por computadora o visión mediante robot como acepciones que se refieren a aquellas técnicas que tratan de extraer la información presente en la imagen con el fin de hacer una interpretación de las escena representada por dicha imagen. &amp;lt;br&amp;gt;Los años ochenta se caracterizaron por la existencia de un gran empuje en el desarrollo de aproximaciones que introdujeron la información de contexto en los procesos de clasificación y segmentación que podemos encontrar en [Besag,1986], [Cross,1983] y [Geman,1984].&amp;lt;br&amp;gt;A partir de la segunda mitad de la década de los 80 se inicia un creciente interés hacia el desarrollo de nuevas teorías y algoritmos para la interpretación de la imagen 2D como proyecciones de escenas 3D. En particular cabe mencionar los problemas asociados a la reconstrucción de escenas a partir de distintas proyecciones, el estudio del flujo óptico y sus múltiples aplicaciones a la caracterización de superficies 3D, la caracterización de superficies a partir del estudio del movimiento, el estudio de las formas a partir de las sombras, las técnicas de representación y búsqueda de objetos, el estudio de la orientación a partir de texturas. &amp;lt;br&amp;gt;De forma paralela, en el tiempo, al desarrollo de las técnicas y métodos matemáticos hasta ahora expuestas, se han venido desarrollando diferentes arquitecturas de computadoras específicas para el procesamiento de datos de imágenes de imágenes digitales. &amp;lt;br&amp;gt;El concepto de arquitectura paralela SIMD (Single Instruction Multiple Data) ha sido sin lugar a duda la más usada en este tipo de aplicaciones. Los conceptos de procesadores con Pipeline y procesadores vectoriales han sido también de amplio uso. Aunque en sus comienzos estas arquitecturas especificas fueron caras y con poco soporte de software básico, en la actualidad pueden considerarse como opciones razonables en los sistemas de procesamiento de imágenes. &amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
== Sistema de Visión Humano  ==&lt;br /&gt;
&lt;br /&gt;
¿Porqué no realizar un modelado perfecto del sistema de visión humano e implementarlo en una computadora?&amp;lt;br&amp;gt;La respuesta no es sencilla, gran cantidad de estudios demuestran claramente que nuestro sistema visual lejos de ser perfecto contiene una serie de irregularidades que no deben ser modeladas para lograr un sistema artificial que supere al humano. No existe ninguna razón para modelar los errores de nuestro sistema.&amp;lt;br&amp;gt;Para realizar un bosquejo de la argumentación anterior realizaremos un estudio de nuestro sistema de visión y observaremos los puntos débiles y sus fortalezas.&amp;lt;br&amp;gt;Todo sistema de visión está compuesto por tres partes fundamentales: &lt;br /&gt;
&lt;br /&gt;
#Las señales que percibimos.&amp;amp;nbsp; &lt;br /&gt;
#El medio en que se transmiten. &lt;br /&gt;
#Los mecanismos de decodificación del sistema receptor y/o cerebro.&lt;br /&gt;
&lt;br /&gt;
Gran parte de las técnicas de procesamiento de señales están asociadas a problemas en la adquisición de dichas señales y más en particular al tipo de sensor usado y al medio a través del cual se han obtenido. &amp;lt;br&amp;gt;El ojo humano, como sensor, es un mecanismo extremadamente especializado, sin embargo el proceso de formación de la imagen que se lleva a cabo en su interior puede considerarse como genérico para cualquier otro sensor de tipo visual. Es por ello que el estudio del funcionamiento del ojo como sensor mejor adaptado al procesamiento de señales visuales es de gran interés para conocer aspectos básicos de los métodos de captación de imágenes. &amp;lt;br&amp;gt;Antes de continuar debemos tener en cuenta que la formación de imágenes a partir de energía electromagnética no es la única forma posible que existe en la naturaleza. Existen otros tipos de ondas como las acústicas que permiten a determinados seres vivos percibir en ambientes de completa oscuridad. Este tipo de percepciones pueden ser representadas hoy en día en términos de una imagen. &amp;lt;br&amp;gt;Una imagen puede describirse como un mapa espacial que sobre una determinada información que nos ofrece algún tipo de sensor. Ejemplos de este tipo de mapas son nuestras percepciones de una determinada situación o escena a partir de nuestros sistemas sensoriales (vista, oído, tacto, gusto, y olfato). Ahora nos restringiremos al caso de la percepción visual. &amp;lt;br&amp;gt;Para centrar aun más nuestro estudio nos preguntaremos sobre el significado real de lo que significa ver o adquirir información a través de un sistema sensorial de tipo visual. Si nos centramos en el modelo visual humano asociaremos el concepto de ver con el de percibir una señal luminosa con una intensidad mínima y en un rango de frecuencia espectral dado. Sin embargo hoy en día son bien conocidas las posibilidades de obtener imágenes a partir de sensores que trabajen en condiciones muy distintas de iluminación a las que es sensible el ojo humano, por ejemplo, el espectro infrarrojo, rayos X, etc. Así pues, la posibilidad de formar imágenes debemos asociarla al tipo de sensor usado y a las posibilidades de que dicho sensor sea capaz de captar y decodificar la información que le llega. &amp;lt;br&amp;gt;El espectro electromagnético puede entenderse como una función continua de la longitud de onda que en su totalidad caracteriza, de forma absoluta, una materia o sustancia. La teoría básica de las ondas describe la energía electromagnética como ondas sinuosidades que viajan a la velocidad de la luz. La distancia entre dos picos consecutivos de dichas ondas es lo que se conoce por longitud de onda, y el número de picos que pasan por un punto del espacio en cada unidad de tiempo, se denomina frecuencia de la onda. Estos conceptos son bien conocidos de la física clásica. El espectro visible se encuentra dentro de los valores de 350 a 750 nm. &amp;lt;br&amp;gt;Históricamente el uso de estas dos fuentes de información, el espectro y la geometría, han sido usadas de forma independiente. Todos los estudios dedicados al tratamiento y análisis de imágenes de tipo visual han hecho especial énfasis en los aspectos geométricos de las formas encontradas en las escenas, y aquellos otros estudios relacionados con la determinación de recursos naturales a través de sensores remotos han hecho un especial énfasis en las propiedades espectrales de la escena. Si bien esta dicotomía en ambos casos ha venido impuesta por los objetivos de la aplicación, parece claro que el uso combinado de ambas fuentes de información debe ser un objetivo de las técnicas de análisis de imágenes. &amp;lt;br&amp;gt;Una vez que tenemos conocimiento de la composición de la señal a analizar podemos pasar al estudio del sensor que debe captar la información. En el caso de nuestro sistema de visión, el ojo se perfila como nuestro sensor del espectro visible.&amp;amp;nbsp;El ojo es casi una esfera de unos 20mm de diámetro, formada por un conjunto de membranas denominadas cornea, esclera, coroide y retina. La cornea y la esclera, constituyen las envolturas externas anterior y posterior del ojo respectivamente. La capa coroidal además de alimentar el ojo a través de sus vasos sanguíneos, tiene la misión de absolver las luces extrañas que entran el ojo así como de amortiguar el efecto de dispersión de la luz dentro del globo ocular. El iris o diafragma esta situado en la parte anterior del coroide, y tiene como misión controlar la cantidad de luz que entra en el ojo. Para ello, la pupila o parte central del iris puede cambiar de tamaño en función de la luminosidad incidente desde 2mm a 8mm de diámetro. &amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
[[Image:Ojo.JPG|frame|center|666x384px|Esquema descriptor del ojo humano]]&amp;amp;nbsp; &lt;br /&gt;
&lt;br /&gt;
La lente del ojo esta formada por capas concéntricas de células fibrosas y esta sujeta al coroide a través de fibras, esta compuesta principalmente por agua (60%-70%), grasa 6% y proteínas. En la lente se absorbe cerca del 8% del espectro de luz visible así como una gran proporción de luz infrarroja y ultravioleta. &amp;lt;br&amp;gt;La membrana más interna del ojo es la retina que cubre toda la pared interna del ojo. Cuando la luz llega al ojo la imagen que transporta se forma en la retina por la sensibilización de dos clases de receptores: los bastones y los conos. &amp;lt;br&amp;gt;El número de conos existentes en un ojo esta entre 6-7 millones y su situación dentro del ojo se concentra alrededor de un punto llamado fóvea. La misión de los conos dentro del ojo es doble. Por un lado son responsables de la detección del color y por otro ayudan a resolver los detalles finos de la imagen. &amp;lt;br&amp;gt;Cuando una persona quiere resolver detalles finos en una imagen intenta que esta se forme en su retina alrededor de la fóvea, consiguiendo por tanto, que los conos sean mayoritariamente los receptores de la luz. La visión a través de los conos se denomina visión fotocópica o de luz brillante. &amp;lt;br&amp;gt;Por otro lado, el número de bastones existentes en un ojo es muy superior al de conos y esta entre 75-150 millones. Los bastones se distribuyen sobre toda la retina y al igual que los conos tienen una doble misión. Por un lado son responsables de dar una impresión general del campo de visión y por otro son responsables de la sensibilidad a niveles bajos de iluminación. Los bastones no son sensibles al color. Un objeto que a la luz del día tiene colores vivos, observado a la luz de la luna aparece sin colores, esto es debido a que tan solo los bastones están estimulados. A la visión a través de bastones se le denomina visión escotópica o de luz tenue.&amp;lt;br&amp;gt;El ojo humano es capaz de adaptarse en un rango de valores de iluminación de aproximadamente&amp;amp;nbsp;10 órdenes de magnitud. El punto más importante a la hora de interpretar este enorme rango es el hecho de que el ojo no opera de forma simultánea sobre todo el rango si no que en cada caso y en función de la luminosidad medía existente se hace sensible a un rango alrededor de dicho valor medio. Dicho intervalo de sensibilidad esta definido de manera que el ojo considera como negro todos aquellos valores que están por debajo del límite inferior del intervalo. El límite superior no se satura como el inferior, pero si queremos que el ojo sea sensible a un determinado rango de luminosidad, habremos de impedir que el ojo reciba valores de intensidad luminosa muy superiores, ya que en ese caso trataría de adaptarse a los valores más intensos a costa de perder sensibilidad en los menos intensos. Este efecto de adaptación se denomina adaptación al brillo. Numerosos experimentos han mostrado que el brillo subjetivo percibido es una función logarítmica de la intensidad de luz incidente en el ojo. &amp;lt;br&amp;gt;El sistema de visión humano como otras partes de la anatomía del cuerpo humano es fruto de la evolución. Como consecuencia de esto el sistema de visión humano responde a unos patrones mejor que otros, por otro lado puede llegar a conclusiones erradas al interpretar situaciones ambiguas por la existencia de ilusiones visuales, ambigüedades e inconsistencias. Marr detalla nuestro sistema en su trabajo [Marr, 1982].&amp;lt;br&amp;gt;Las ambigüedades son muy frecuentes y se basan en que una figura puede tener más de una posible interpretación. Múltiples interpretaciones pueden coexistir o una puede dominar. &amp;lt;br&amp;gt;Los investigadores han demostrado que inferimos de nuestras imágenes en la retina más de lo que de verdad está soportado por la geometría y física de la formación de imágenes. &amp;lt;br&amp;gt;Helmhotz en su libro Handbook of Physiological Optics publicado a mediados del siglo pasado expresó que cada imagen es una imagen de algo sólo para aquel que conoce como leerla, y que está capacitado con la ayuda de la imagen a formar una idea de la cosa. &amp;lt;br&amp;gt;Esta afirmación nos muestra que el sistema visual humano no realiza inferencias precisas y exactas basadas en la física de la formación de imágenes en el ojo, sino que el sistema visual invoca reglas que se obtienen y están dirigidas por la experiencia previa del individuo y tal vez por la especie. &amp;lt;br&amp;gt;Como se pudo apreciar nuestro sistema de visión ha evolucionado y presenta sistemas de adaptación increíbles a los cambios de iluminación entre otras de sus fortalezas, sin embargo también presenta debilidades que no deben ser tomadas en cuenta a la hora de realizar un sistema que lo simule.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
== Sistema de Visión Artificial  ==&lt;br /&gt;
&lt;br /&gt;
La necesidad de ver artificialmente evoluciona a medida que el ser humano es capaz de estudiar su propio cuerpo y demostrar que cerca del 60% de la corteza cerebral del hombre se dedica a procesar la información visual.&amp;lt;br&amp;gt;Los sistemas de visión artificial han evolucionado poco a poco a medida que la tecnología ha evolucionado y ha permitido la creación de sensores, computadoras y algoritmos de procesamiento más potentes.&amp;lt;br&amp;gt;De forma básica un sistema de visión artificial está conformado por varios subsistemas capaces de realizar dos funciones básicas:&amp;lt;br&amp;gt; Captar la información de la escena real mediante la proyección en una imagen.&amp;lt;br&amp;gt; Analizar las imágenes para extraer la información que contienen.&amp;lt;br&amp;gt;Los sensores, la iluminación y las tarjetas digitalizadoras son los dispositivos más importantes en la captura de la información de las escenas reales; en cambio el mayor peso del análisis de las imágenes captadas se encuentra a nivel de software aunque en ocasiones se encuentran dispositivos que realizan la extracción de la información utilizando hardware especializado, un ejemplo de esto son las tarjetas digitalizadoras que contienen incorporadas funciones de procesamiento como es el caso de filtrado para detectar contornos construidas por la compañía Matrox. &amp;lt;br&amp;gt;La Figura 1.2 muestra un diagrama donde se ilustra las fases de un sistema de visión artificial.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
=== Sensores.  ===&lt;br /&gt;
&lt;br /&gt;
Existe gran diversidad de sensores a partir de los cuales se pueden obtener imágenes. Su principal clasificación es a partir de la naturaleza de la señal que conforman la imagen, dentro de ellos podemos mencionar, los sensores de Rayos X, Rayos Gamma, luz ultravioleta, infrarroja, etc. Por otra parte podemos mencionar los sensores basados en el principio del eco como es el caso de los radares y los equipos de ultrasonido.&amp;lt;br&amp;gt;La variedad de sensores utilizados en sistemas de visión artificial se ha expandido hasta dominios insospechados en este aspecto estos sistemas superan ampliamente al sistema de visión humano el cual sólo puede tomar información visual dentro del espectro visible. Sin embargo no cabe duda que los sensores más utilizados, en aplicaciones que requieran de este tipo de sistemas, son la cámaras ya sean estas fotográficas o de video.&amp;lt;br&amp;gt;Las cámaras son las encargadas de captar la información luminosa de la escena a analizar y convertirla en una señal, analógica o digital, para ser utilizada por los sistemas de procesamiento.&amp;lt;br&amp;gt;Existen varios tipos de cámaras digitales, las cuales se dividen en función de: &lt;br /&gt;
&lt;br /&gt;
*Modo de captar la información de la escena. Dentro de esta categoría se pueden mencionar las cámaras basadas en tecnología Vidicom, Orticom y CCD. &lt;br /&gt;
*Modo de exploración. Aquí se encuentran las cámaras de exploración de línea y área. &lt;br /&gt;
*Estado sólido y no sólido.&lt;br /&gt;
&lt;br /&gt;
&amp;amp;nbsp; &lt;br /&gt;
&lt;br /&gt;
=== Iluminación.  ===&lt;br /&gt;
&lt;br /&gt;
La iluminación de una escena es uno de los puntos sensibles en un sistema de visión. Las fuentes de luz se deben escoger en función de la aplicación que se desea realizar, una fuente mal escogida puede traer consigo un sin número de anormalidades difíciles de eliminar como son el caso de las sombras, las reflexiones y el bajo contraste. Es por ello que el conocimiento del tipo de iluminación a utilizar se debe tener muy en cuenta.&amp;lt;br&amp;gt;Iluminación tipo LED: La luz emitida por este tipo de fuente presenta como ventaja fundamental que tiene naturaleza monocromática, estos dispositivos presentan una larga vida útil, alto rendimiento y requieren de una fuente de alimentación de muy baja potencia además presentan un costo excesivamente bajo. Sus principales desventajas son que emiten poca intensidad y que en ocasiones dos LEDs similares presentan diferencias en la longitud de onda de la luz que emiten.&amp;lt;br&amp;gt;Flash: Normalmente se utilizan para captar imágenes en movimiento, son fuentes de luz de gran intensidad luminosa que se ve poco afectada por la luz ambiente. Su principal desventaja es la fuente de alimentación las cuales deben estar bien sincronizadas con le sistema de captura de la imagen, presentan gran disipación de calor y pierden luminosidad con el tiempo. A su favor podemos decir que son fuentes extremadamente rápidas.&amp;lt;br&amp;gt;Láser: Muchos hemos escuchado hablar de lo extremadamente direccional de la luz emitida por este tipo de fuente además presenta la característica de ser monocromática. Se postula como una fuente de luz casi perfecta aunque su inconveniente principal es su costo y la necesidad de colocarle dispositivos auxiliares para realizar barridos de la zona de interés.&amp;lt;br&amp;gt;Lámpara Incandescente: Su iluminación es bastante homogénea aunque presenta las dificultades de ser consumidoras y disipadoras de calor. No presentan tiempos de vida largo aunque si son muy baratas.&amp;lt;br&amp;gt;Lámparas Fluorescentes: Su iluminación es muy clara aunque presentan tiempos de vida cortos y las pérdidas de iluminación con el tiempo son acentuadas. El costo de este tipo de fuente es bajo.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
=== Tarjetas digitalizadoras.  ===&lt;br /&gt;
&lt;br /&gt;
La función de estas tarjetas es captar la señal que ofrece el sensor de imagen y convertirla a formato digital y entregarla al dispositivo inteligente, llámese PC o PLC, para su posterior análisis. Una muestra de este tipo de dispositivo se observa en la figura 1.4.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Las funciones principales que realiza este tipo de dispositivo son: &lt;br /&gt;
&lt;br /&gt;
#Recoger la señal analógica procedente de la cámara. &lt;br /&gt;
#Convertir la señal analógica en digital. &lt;br /&gt;
#Almacenar la señal digital en memoria. &lt;br /&gt;
#Las tarjetas comerciales incluyen: Memoria propia, funciones de procesado, conversores digital-analógico y analógico-digital e incluso presentación en pantalla de la imagen.&lt;br /&gt;
&lt;br /&gt;
&amp;amp;nbsp; &lt;br /&gt;
&lt;br /&gt;
=== &amp;amp;nbsp;Análisis de Imágenes Digitales.  ===&lt;br /&gt;
&lt;br /&gt;
Una vez captada la imagen por el sensor y transmitida al dispositivo donde será procesada, el paso siguiente es realizar la extracción de la información explícita que encierra dicha imagen, por ejemplo posición de los objetos, forma, textura etc.&amp;lt;br&amp;gt;Las técnicas utilizadas para realizar la extracción de esta información se dividen en cuatro grupos fundamentales: &lt;br /&gt;
&lt;br /&gt;
#Preprocesado. &lt;br /&gt;
#Segmentación. &lt;br /&gt;
#Descripción. &lt;br /&gt;
#Reconocimiento.&amp;amp;nbsp;&lt;br /&gt;
&lt;br /&gt;
==== Preprocesado  ====&lt;br /&gt;
&lt;br /&gt;
Este grupo de funciones se especializa en realizarle mejoras a la imagen captada, es decir resalta un sin número de características que conllevan a elevar la calidad de la imagen a la hora de ser analizada. Dentro de las funciones más comunes se encuentra la eliminación del ruido, el cambio de contraste y brillo, las transformaciones geométricas. &amp;lt;br&amp;gt;[Mazo, et.al,1996],[Perez,2000], [Rosenfeld,Kak,1982], [Gonzalez ,1979], son algunos trabajos que describen estas técnicas.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== Segmentación  ====&lt;br /&gt;
&lt;br /&gt;
La clasificación de la escena en sus partes u objetos es a lo que se le llama segmentación de la imagen. Estas técnicas se basan en encontrar donde se encuentran grupos de pixels que conformen un ente a clasificar (objeto), para ello estas técnicas se basan en los principios de discontinuidad y similitud. [Rosenfeld, Davis, 1997], [Sugata,1996], [Smith,1996].&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==== Descripción  ====&lt;br /&gt;
&lt;br /&gt;
Estas técnicas se basan en extraer, del ente a estudiar, las características que lo diferencian de los demás. Para realizar esta extracción de características es necesario realizar un estudio del objeto a analizar y extrae con cuidado las características invariantes que posea. Estas características deben ser, generalmente, independientes a rotaciones, escalamientos corrimientos de dicho objeto. Dentro de estas características podemos mencionar, área perímetro, circularidad, patrones de texturas, rasgos de formas, etc.&amp;lt;br&amp;gt;[Mazo, et.al,1996], [Rosenfeld,Daves,1997].&amp;amp;nbsp; &lt;br /&gt;
&lt;br /&gt;
==== Reconocimiento&amp;lt;br&amp;gt;  ====&lt;br /&gt;
&lt;br /&gt;
Una vez obtenidas las características que describen el objeto a estudiar, se pasa al reconocimiento del mismo, esto no es más que la clasificación, utilizando cualquier técnica conocida, llámese inteligencia artificial, búsquedas deductivas en base de datos, comparación con patrones etc.&amp;lt;br&amp;gt;Dentro de las técnicas más utilizadas se encuentra la utilización de redes neuronales artificiales, algoritmos genéticos y métodos estadísticos avanzados. [Amir,1997], [Bishop,1998], [Fukunaga,1990].&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;amp;nbsp; &lt;br /&gt;
&lt;br /&gt;
== Fuentes  ==&lt;br /&gt;
&lt;br /&gt;
&amp;amp;nbsp; &lt;br /&gt;
&lt;br /&gt;
[[Category:Sistemas_Automatizados]]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;/div&gt;</summary>
		<author><name>Moises cedai</name></author>
		
	</entry>
	<entry>
		<id>https://www.ecured.cu/index.php?title=Visi%C3%B3n_Artificial&amp;diff=27951</id>
		<title>Visión Artificial</title>
		<link rel="alternate" type="text/html" href="https://www.ecured.cu/index.php?title=Visi%C3%B3n_Artificial&amp;diff=27951"/>
		<updated>2010-03-08T21:51:16Z</updated>

		<summary type="html">&lt;p&gt;Moises cedai: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''{{Desarrollo}}''' &lt;br /&gt;
&lt;br /&gt;
'''Visión Artificial''' &lt;br /&gt;
&lt;br /&gt;
También conocida como ''Visión por Computadora.'' &lt;br /&gt;
&lt;br /&gt;
Puede considerarse como el conjunto de todas aquellas técnicas y modelos que nos permitan la adquisición, procesamiento, análisis y explicación de cualquier tipo de información espacial del mundo real obtenida a través de imágenes digitales. &lt;br /&gt;
&lt;br /&gt;
== Otras Definiciones ==&lt;br /&gt;
&lt;br /&gt;
''Visión Artificial es la ciencia que estudia, utilizando computadoras digitales, los procesos de obtención, caracterización, interpretación de la información procedentes de imágenes tomadas de un mundo tridimensional.'' &lt;br /&gt;
&lt;br /&gt;
''La Visión es un proceso de tratamiento de información que permite obtener una descripción simbólica del mundo real a partir de imágenes.'' &lt;br /&gt;
&lt;br /&gt;
''La Visión Artificial parece fácil pero…,Como hacemos para identificar la forma de una nube, que casi todo el mundo sabe identificar pero casi nadie sabe explicar?, Porque identificamos perfectamente un objeto independientemente de la perspectiva que tengamos de él, qué es común a cualquier plano de visión?.'' &lt;br /&gt;
&lt;br /&gt;
== Antecedentes ==&lt;br /&gt;
&lt;br /&gt;
Dentro de los hitos más relevantes, en el modelado de la percepción visual, podemos mencionar los estudios de Kepler sobre el análisis geométrico de la formación de la imagen en el ojo, las apreciaciones de Newton sobre visión en color, Helmhotz (1910) sobre óptica fisiológica y Wertheimer (1912) sobre el movimiento aparente de agrupaciones de puntos o campos. Estos trabajos, unidos a otros, han establecido las bases de las actuales teorías de percepción visual. &amp;lt;br&amp;gt;Muchos concuerdan en que el primer gran paso se logró a principio del siglo XX con la aparición de la escuela de psicología de la Gelstat basada, principalmente, en los trabajos de Wertheimer. Esta escuela tuvo, dentro de sus resultados más relevantes, el establecer criterios que planteaban que características como la similaridad, homogeneidad, cercanía, etc, eran suficientes para tratar de explicar las propiedades de los mecanismos psicofísicos de la visión humana. Pero, esta aproximación con criterios tan globales se perdió años más tarde al no poder dar respuesta a nuevos interrogantes dentro del proceso de percepción visual. &amp;lt;br&amp;gt;Alrededor de los años 50, la investigación se orientó en la búsqueda de explicaciones al más bajo nivel celular, lo que originó una nueva corriente de ideas y teorías que con base en las potencialidades de las neuronas como células individuales. Se intentó explicar los mecanismos y propiedades de la visión humana, Hubel y Weisel (1962, 1968) y Barlow (1972). Sin embargo, esta aproximación tampoco pudo dar respuesta a los problemas más profundos de como nuestro mecanismo visual codifica, representa y reconoce distintos tipos de informaciones espaciales. &amp;lt;br&amp;gt;Dada la enorme complejidad mostrada por el sistema de visión humana y como consecuencia del lento avance de las teorías y algoritmos que explicaban su funcionamiento y propiedades se intentó abordar estos problemas de formas más directas a partir de tres enfoques distintos. &amp;lt;br&amp;gt;El primero se basó en el desarrollo de técnicas empíricas basadas en criterios de tipo matemático que aproximaban estos problemas de estimación de bordes y líneas usando distintos criterios. Dentro de este Grupo se encontraba Azriel Rosenfeld. Estas aproximaciones crearon algunas ideas interesantes como el uso simultáneo de operadores de distinto tamaño, pero tuvo el gran inconveniente de no poder proponer métodos para la evaluación de los distintos algoritmos. &amp;lt;br&amp;gt;El segundo enfoque se basó en profundizar en el problema reduciendo su alcance a un mundo de bloques blancos iluminados sobre fondo negro. Los bloques podían tener cualquier forma, siempre que todas sus superficies fueran planas y todos sus bordes rectos. Este modelo funcionó perfectamente en ciertos trabajos como los realizados por Waltz (1975) y Mackworth (1973); ellos resolvieron interpretaciones de dibujos lineales a partir de estudios de imágenes de prismas sólidos. De hecho, la simplificación impuesta en este modelo se había hecho con el razonamiento de que presentado un conocimiento profundo del problema en un mundo simplificado permitiría más tarde extrapolar dichos conocimientos a mundos más complejos.&amp;lt;br&amp;gt;En años más recientes se enfrascaron en idear un modelo más completo de la percepción visual que eliminara las limitaciones de los anteriores, esta especialización trajo consigo el tercer enfoque. &amp;lt;br&amp;gt;Dentro de los trabajos más relevantes podemos mencionar los realizados por Horn (1975, 1977) sobre la formación de la imagen. En ellos Horn establece modelos de cálculo que expresan la formación de la imagen a través de ecuaciones diferenciales que relacionan los valores de intensidad de la imagen con la geometría de la superficie tras estudiar con gran detalle el modo en que la iluminación, la geometría, la reflectancia de la superficie y el punto de vista del observador actuaban de forma conjunta para crear los valores de intensidad medidos en la imagen.&amp;lt;br&amp;gt;Fue entonces cuando diversos investigadores, dentro de los cuales se destacó Julesz (1975), demostraron que los mecanismos de la visión estereoscópica son realizados en la retina en una etapa muy previa del proceso de visión, y que el mecanismo de visión humana tiene la posibilidad de interpretar imágenes en 3D usando solamente las informaciones sobre profundidad, distancia y textura.&amp;lt;br&amp;gt;Estos estudios lograron establecer las denominadas teorías de tipo modular, las cuales representaban el proceso de visión como la sucesión de transformaciones que a partir de la escena del mundo externo, produce una descripción útil al observador sin estar entorpecida por la información irrelevante. (Marr, 1976; Marr y Nishihara, 1978). &amp;lt;br&amp;gt;La mayoría de los estudiosos del tema concuerdan en que a las técnicas asociadas al estudio de los sistemas de visión artificial debe considerarse como parte de la Inteligencia Artificial por cuanto modelan actividades del cerebro humano.&amp;lt;br&amp;gt;En los últimos años se han realizado un sin número de trabajos en el campo de la visión artificial. Institutos como el MIT (Massachusetts Institute of Technology), llevaron la delantera durante los años 70 y marcaron pautas en los estudios en estos temas. Uno de los investigadores más relevantes de este instituto resultó ser David Marr, el cual estableció una metodología modular tipo “Botton/Up”. Para lograr realizar el procesamiento de una imagen percibida, Marr planteó tres grandes bloques para el procesamiento de la información. &amp;lt;br&amp;gt; Cálculo del esbozo primitivo como estructura informacional que caracteriza los distintos rasgos básicos (bordes, líneas, arcos, ceros, manchas, etc) presentes en la imagen de intensidades (nivel 2D).&amp;lt;br&amp;gt; Construcción de las superficies presentes en la imagen desde el punto de vista del observador, a partir de la informaciones suministradas por el esbozo primitivo y las informaciones tridimensionales proporcionadas por las estereoscopía, sombreado, reflectancia, iluminación, etc.&amp;lt;br&amp;gt; Construcción del modelo que representa a los objetos en el espacio y permite catalogarlos y compararlos con información previamente almacenada (nivel 3D). &amp;lt;br&amp;gt;Marr forjó las bases en el campo del estudio de los mecanismos de la visión humana y el análisis de imágenes digitales, sus principales hitos se basaron en realizar métodos para la descomposición de la información en niveles 2D, 3D y sus esquemas de representación de la información en cada uno de estos niveles.&amp;lt;br&amp;gt;Otros estudiosos se dedicaron a profundizar en estos estudios dentro de los que podemos mencionar a Nishihara el cual planteó en 1978 que la información acerca de la geometría y la reflectancia de las superficies visibles se codifica en la imagen de varias formas y puede ser decodificada por procesos casi independientes. &amp;lt;br&amp;gt;La comprensión de esta frase fue el comienzo que dio lugar a la aparición de múltiples teorías sobre los procesos de decodificación. Muchos de estos procesos de decodificación permanecen hoy en día como áreas activas de investigación. De entre los más importantes podemos citar: la estereoscopía, la derivación de la estructura a partir del movimiento aparente, la selectividad de dirección, el cálculo de la profundidad a partir del flujo óptico, el cálculo de la orientación de la superficie a partir de su textura, el cálculo de la forma a partir de la sombra, la estereoscopía fotométrica, etc. &amp;lt;br&amp;gt;Los estudios de Marr son considerados los de mayor influencia el desarrollo de las técnicas del análisis de las imágenes digitales. A las teorías desarrolladas por él y sus colaboradores le prosiguieron investigaciones realizadas por estudiosos de la talla de Tenenbaum y Barrow (1976), los cuales hicieron propuestas alternativas en el sentido de considerar modelos en los que el proceso de transformación de la información esta definido por un ciclo en el que intervienen por un lado los datos observados, es decir un equivalente al cálculo de las informaciones del esbozo primitivo en el modelo de Marr y por otro lado, un proceso dirigido desde la información ya conocida tratando de ajustar las observaciones a esta información. &amp;lt;br&amp;gt;En particular los trabajos de Terzopoulos (1983,1988) y Blake y Zisserman (1987) sobre regularización y reconstrucción de superficies y aquellos otros basados en modelos de segmentación basados en campos aleatorios de Markov, van en esta línea. &amp;lt;br&amp;gt;Como consecuencia de los muchos trabajos desarrollados a partir de las teorías de Marr y sus colaboradores, se ha iniciado un nuevo campo de especialidad denominado Visión Computacional que trata de explicar los mecanismos de cálculo de la visión humana usando para ello procedimientos y métodos de las teorías matemáticas de procesamiento de información. &amp;lt;br&amp;gt;De lo anteriormente mencionado, se deduce que si bien el estudio de los mecanismos de la visión humana ha tenido larga tradición en la historia de la ciencia no ha sido hasta la aparición de las computadoras digitales que se ha logrado implementar modelos fiables del sistema de visión que conlleven a la implementación de sistemas artificiales que resuelvan problemas como los humanos.&amp;lt;br&amp;gt;El procesamiento de imágenes nace en el momento en que se dispone de recursos tecnológicos para lograr captar y manipular grandes cantidades de información espacial en forma de matrices de valores. El primer hito histórico del uso de estas técnicas se ubicó en los años veinte en la transmisión de imágenes de fotografías a través de cable submarino entre Londres y New York, con esto se logró que el tiempo entre emisión y recepción de las imágenes se redujese de una semana por barco a tres horas por cable.&amp;lt;br&amp;gt;Esto se considera como la base sobre la cual se desarrollaron, durante algún tiempo, las técnicas de codificación y reproducción de las imágenes logrando pasar en la representación de imágenes de cinco a quince tonos de gris. &amp;lt;br&amp;gt;Con la llegada de las primeras computadoras digitales en los años 50-60, se comienza a necesitar de disponer de técnicas para la transmisión y procesamiento de imágenes desde satélite, uno de los empujes dados a estas técnicas de trasmisión, realce y restauración de imágenes fueron realizados por el Jet Propulsion Laboratory (EEUU), encargado del procesamiento de las imágenes mandadas por los primeros satélites y por el National Institute of Health (EEUU) dedicado al estudio de imágenes de rayos X, microscopía óptica y electrónica. &amp;lt;br&amp;gt;No cabe la menor duda que el MIT junto con la Universidad de Stanford se perfilan como los centros más sobresalientes en los estudios de visión artificial, dentro de sus trabajos más relevantes se pueden mencionar la visión aplicada a robótica bajo el proyecto Hand-Eye y el llamado proyecto UIS (Image Understanding System), este último proyecto marca el comienzo del uso de estas técnicas en aplicaciones de tipo militar. Por otra parte países como Japón desarrollaron el llamado proyecto PIPS (Pattern-Information Processing System), el cual impulsó el desarrollo del análisis de imágenes.&amp;lt;br&amp;gt;Los estudios realizados por los países de Europa no se quedaron detrás cabe destacar la investigación desarrollada, durante los años setenta, por los profesores G. Matheron y J. Serra de la École National Supérieure des Mines de Paris (Francia) el cual ofreció aportes a la geometría integral y el cálculo de probabilidades para la caracterización y medición de formas, esta metodología se denomina Morfología Matemática y ha tenido sus principales áreas de aplicación en los campos de la geología, la biología y la medicina. &amp;lt;br&amp;gt;A partir de este momento se observar el comienzo de cierta especialización en las técnicas existentes. Así, comienzan a aparecer los conceptos de técnicas para el procesamiento de imágenes digitales como el conjunto de todas aquellas técnicas asociadas a la captura, codificación y representación de las imágenes que no introducen sobre las mismas ningún tipo de interpretación, y técnicas para el análisis de imágenes digitales, técnicas de visión por computadora o visión mediante robot como acepciones que se refieren a aquellas técnicas que tratan de extraer la información presente en la imagen con el fin de hacer una interpretación de las escena representada por dicha imagen. &amp;lt;br&amp;gt;Los años ochenta se caracterizaron por la existencia de un gran empuje en el desarrollo de aproximaciones que introdujeron la información de contexto en los procesos de clasificación y segmentación que podemos encontrar en [Besag,1986], [Cross,1983] y [Geman,1984].&amp;lt;br&amp;gt;A partir de la segunda mitad de la década de los 80 se inicia un creciente interés hacia el desarrollo de nuevas teorías y algoritmos para la interpretación de la imagen 2D como proyecciones de escenas 3D. En particular cabe mencionar los problemas asociados a la reconstrucción de escenas a partir de distintas proyecciones, el estudio del flujo óptico y sus múltiples aplicaciones a la caracterización de superficies 3D, la caracterización de superficies a partir del estudio del movimiento, el estudio de las formas a partir de las sombras, las técnicas de representación y búsqueda de objetos, el estudio de la orientación a partir de texturas. &amp;lt;br&amp;gt;De forma paralela, en el tiempo, al desarrollo de las técnicas y métodos matemáticos hasta ahora expuestas, se han venido desarrollando diferentes arquitecturas de computadoras específicas para el procesamiento de datos de imágenes de imágenes digitales. &amp;lt;br&amp;gt;El concepto de arquitectura paralela SIMD (Single Instruction Multiple Data) ha sido sin lugar a duda la más usada en este tipo de aplicaciones. Los conceptos de procesadores con Pipeline y procesadores vectoriales han sido también de amplio uso. Aunque en sus comienzos estas arquitecturas especificas fueron caras y con poco soporte de software básico, en la actualidad pueden considerarse como opciones razonables en los sistemas de procesamiento de imágenes. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sistema de Visión Humano  ==&lt;br /&gt;
&lt;br /&gt;
¿Porqué no realizar un modelado perfecto del sistema de visión humano e implementarlo en una computadora?&amp;lt;br&amp;gt;La respuesta no es sencilla, gran cantidad de estudios demuestran claramente que nuestro sistema visual lejos de ser perfecto contiene una serie de irregularidades que no deben ser modeladas para lograr un sistema artificial que supere al humano. No existe ninguna razón para modelar los errores de nuestro sistema.&amp;lt;br&amp;gt;Para realizar un bosquejo de la argumentación anterior realizaremos un estudio de nuestro sistema de visión y observaremos los puntos débiles y sus fortalezas.&amp;lt;br&amp;gt;Todo sistema de visión está compuesto por tres partes fundamentales: &lt;br /&gt;
&lt;br /&gt;
#Las señales que percibimos.&amp;amp;nbsp; &lt;br /&gt;
#El medio en que se transmiten. &lt;br /&gt;
#Los mecanismos de decodificación del sistema receptor y/o cerebro.&lt;br /&gt;
&lt;br /&gt;
Gran parte de las técnicas de procesamiento de señales están asociadas a problemas en la adquisición de dichas señales y más en particular al tipo de sensor usado y al medio a través del cual se han obtenido. &amp;lt;br&amp;gt;El ojo humano, como sensor, es un mecanismo extremadamente especializado, sin embargo el proceso de formación de la imagen que se lleva a cabo en su interior puede considerarse como genérico para cualquier otro sensor de tipo visual. Es por ello que el estudio del funcionamiento del ojo como sensor mejor adaptado al procesamiento de señales visuales es de gran interés para conocer aspectos básicos de los métodos de captación de imágenes. &amp;lt;br&amp;gt;Antes de continuar debemos tener en cuenta que la formación de imágenes a partir de energía electromagnética no es la única forma posible que existe en la naturaleza. Existen otros tipos de ondas como las acústicas que permiten a determinados seres vivos percibir en ambientes de completa oscuridad. Este tipo de percepciones pueden ser representadas hoy en día en términos de una imagen. &amp;lt;br&amp;gt;Una imagen puede describirse como un mapa espacial que sobre una determinada información que nos ofrece algún tipo de sensor. Ejemplos de este tipo de mapas son nuestras percepciones de una determinada situación o escena a partir de nuestros sistemas sensoriales (vista, oído, tacto, gusto, y olfato). Ahora nos restringiremos al caso de la percepción visual. &amp;lt;br&amp;gt;Para centrar aun más nuestro estudio nos preguntaremos sobre el significado real de lo que significa ver o adquirir información a través de un sistema sensorial de tipo visual. Si nos centramos en el modelo visual humano asociaremos el concepto de ver con el de percibir una señal luminosa con una intensidad mínima y en un rango de frecuencia espectral dado. Sin embargo hoy en día son bien conocidas las posibilidades de obtener imágenes a partir de sensores que trabajen en condiciones muy distintas de iluminación a las que es sensible el ojo humano, por ejemplo, el espectro infrarrojo, rayos X, etc. Así pues, la posibilidad de formar imágenes debemos asociarla al tipo de sensor usado y a las posibilidades de que dicho sensor sea capaz de captar y decodificar la información que le llega. &amp;lt;br&amp;gt;El espectro electromagnético puede entenderse como una función continua de la longitud de onda que en su totalidad caracteriza, de forma absoluta, una materia o sustancia. La teoría básica de las ondas describe la energía electromagnética como ondas sinuosidades que viajan a la velocidad de la luz. La distancia entre dos picos consecutivos de dichas ondas es lo que se conoce por longitud de onda, y el número de picos que pasan por un punto del espacio en cada unidad de tiempo, se denomina frecuencia de la onda. Estos conceptos son bien conocidos de la física clásica. El espectro visible se encuentra dentro de los valores de 350 a 750 nm. &amp;lt;br&amp;gt;Históricamente el uso de estas dos fuentes de información, el espectro y la geometría, han sido usadas de forma independiente. Todos los estudios dedicados al tratamiento y análisis de imágenes de tipo visual han hecho especial énfasis en los aspectos geométricos de las formas encontradas en las escenas, y aquellos otros estudios relacionados con la determinación de recursos naturales a través de sensores remotos han hecho un especial énfasis en las propiedades espectrales de la escena. Si bien esta dicotomía en ambos casos ha venido impuesta por los objetivos de la aplicación, parece claro que el uso combinado de ambas fuentes de información debe ser un objetivo de las técnicas de análisis de imágenes. &amp;lt;br&amp;gt;Una vez que tenemos conocimiento de la composición de la señal a analizar podemos pasar al estudio del sensor que debe captar la información. En el caso de nuestro sistema de visión, el ojo se perfila como nuestro sensor del espectro visible.&amp;amp;nbsp;El ojo es casi una esfera de unos 20mm de diámetro, formada por un conjunto de membranas denominadas cornea, esclera, coroide y retina. La cornea y la esclera, constituyen las envolturas externas anterior y posterior del ojo respectivamente. La capa coroidal además de alimentar el ojo a través de sus vasos sanguíneos, tiene la misión de absolver las luces extrañas que entran el ojo así como de amortiguar el efecto de dispersión de la luz dentro del globo ocular. El iris o diafragma esta situado en la parte anterior del coroide, y tiene como misión controlar la cantidad de luz que entra en el ojo. Para ello, la pupila o parte central del iris puede cambiar de tamaño en función de la luminosidad incidente desde 2mm a 8mm de diámetro. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Image:Ojo.JPG|frame|center|666x384px|Esquema descriptor del ojo humano]]&amp;amp;nbsp; &lt;br /&gt;
&lt;br /&gt;
La lente del ojo esta formada por capas concéntricas de células fibrosas y esta sujeta al coroide a través de fibras, esta compuesta principalmente por agua (60%-70%), grasa 6% y proteínas. En la lente se absorbe cerca del 8% del espectro de luz visible así como una gran proporción de luz infrarroja y ultravioleta. &amp;lt;br&amp;gt;La membrana más interna del ojo es la retina que cubre toda la pared interna del ojo. Cuando la luz llega al ojo la imagen que transporta se forma en la retina por la sensibilización de dos clases de receptores: los bastones y los conos. &amp;lt;br&amp;gt;El número de conos existentes en un ojo esta entre 6-7 millones y su situación dentro del ojo se concentra alrededor de un punto llamado fóvea. La misión de los conos dentro del ojo es doble. Por un lado son responsables de la detección del color y por otro ayudan a resolver los detalles finos de la imagen. &amp;lt;br&amp;gt;Cuando una persona quiere resolver detalles finos en una imagen intenta que esta se forme en su retina alrededor de la fóvea, consiguiendo por tanto, que los conos sean mayoritariamente los receptores de la luz. La visión a través de los conos se denomina visión fotocópica o de luz brillante. &amp;lt;br&amp;gt;Por otro lado, el número de bastones existentes en un ojo es muy superior al de conos y esta entre 75-150 millones. Los bastones se distribuyen sobre toda la retina y al igual que los conos tienen una doble misión. Por un lado son responsables de dar una impresión general del campo de visión y por otro son responsables de la sensibilidad a niveles bajos de iluminación. Los bastones no son sensibles al color. Un objeto que a la luz del día tiene colores vivos, observado a la luz de la luna aparece sin colores, esto es debido a que tan solo los bastones están estimulados. A la visión a través de bastones se le denomina visión escotópica o de luz tenue.&amp;lt;br&amp;gt;El ojo humano es capaz de adaptarse en un rango de valores de iluminación de aproximadamente&amp;amp;nbsp;10 órdenes de magnitud. El punto más importante a la hora de interpretar este enorme rango es el hecho de que el ojo no opera de forma simultánea sobre todo el rango si no que en cada caso y en función de la luminosidad medía existente se hace sensible a un rango alrededor de dicho valor medio. Dicho intervalo de sensibilidad esta definido de manera que el ojo considera como negro todos aquellos valores que están por debajo del límite inferior del intervalo. El límite superior no se satura como el inferior, pero si queremos que el ojo sea sensible a un determinado rango de luminosidad, habremos de impedir que el ojo reciba valores de intensidad luminosa muy superiores, ya que en ese caso trataría de adaptarse a los valores más intensos a costa de perder sensibilidad en los menos intensos. Este efecto de adaptación se denomina adaptación al brillo. Numerosos experimentos han mostrado que el brillo subjetivo percibido es una función logarítmica de la intensidad de luz incidente en el ojo. &amp;lt;br&amp;gt;El sistema de visión humano como otras partes de la anatomía del cuerpo humano es fruto de la evolución. Como consecuencia de esto el sistema de visión humano responde a unos patrones mejor que otros, por otro lado puede llegar a conclusiones erradas al interpretar situaciones ambiguas por la existencia de ilusiones visuales, ambigüedades e inconsistencias. Marr detalla nuestro sistema en su trabajo [Marr, 1982].&amp;lt;br&amp;gt;Las ambigüedades son muy frecuentes y se basan en que una figura puede tener más de una posible interpretación. Múltiples interpretaciones pueden coexistir o una puede dominar. &amp;lt;br&amp;gt;Los investigadores han demostrado que inferimos de nuestras imágenes en la retina más de lo que de verdad está soportado por la geometría y física de la formación de imágenes. &amp;lt;br&amp;gt;Helmhotz en su libro Handbook of Physiological Optics publicado a mediados del siglo pasado expresó que cada imagen es una imagen de algo sólo para aquel que conoce como leerla, y que está capacitado con la ayuda de la imagen a formar una idea de la cosa. &amp;lt;br&amp;gt;Esta afirmación nos muestra que el sistema visual humano no realiza inferencias precisas y exactas basadas en la física de la formación de imágenes en el ojo, sino que el sistema visual invoca reglas que se obtienen y están dirigidas por la experiencia previa del individuo y tal vez por la especie. &amp;lt;br&amp;gt;Como se pudo apreciar nuestro sistema de visión ha evolucionado y presenta sistemas de adaptación increíbles a los cambios de iluminación entre otras de sus fortalezas, sin embargo también presenta debilidades que no deben ser tomadas en cuenta a la hora de realizar un sistema que lo simule.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Sistema de Visión Artificial ==&lt;br /&gt;
&lt;br /&gt;
La necesidad de ver artificialmente evoluciona a medida que el ser humano es capaz de estudiar su propio cuerpo y demostrar que cerca del 60% de la corteza cerebral del hombre se dedica a procesar la información visual.&amp;lt;br&amp;gt;Los sistemas de visión artificial han evolucionado poco a poco a medida que la tecnología ha evolucionado y ha permitido la creación de sensores, computadoras y algoritmos de procesamiento más potentes.&amp;lt;br&amp;gt;De forma básica un sistema de visión artificial está conformado por varios subsistemas capaces de realizar dos funciones básicas:&amp;lt;br&amp;gt; Captar la información de la escena real mediante la proyección en una imagen.&amp;lt;br&amp;gt; Analizar las imágenes para extraer la información que contienen.&amp;lt;br&amp;gt;Los sensores, la iluminación y las tarjetas digitalizadoras son los dispositivos más importantes en la captura de la información de las escenas reales; en cambio el mayor peso del análisis de las imágenes captadas se encuentra a nivel de software aunque en ocasiones se encuentran dispositivos que realizan la extracción de la información utilizando hardware especializado, un ejemplo de esto son las tarjetas digitalizadoras que contienen incorporadas funciones de procesamiento como es el caso de filtrado para detectar contornos construidas por la compañía Matrox. &amp;lt;br&amp;gt;La Figura 1.2 muestra un diagrama donde se ilustra las fases de un sistema de visión artificial.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Sensores. ===&lt;br /&gt;
&lt;br /&gt;
Existe gran diversidad de sensores a partir de los cuales se pueden obtener imágenes. Su principal clasificación es a partir de la naturaleza de la señal que conforman la imagen, dentro de ellos podemos mencionar, los sensores de Rayos X, Rayos Gamma, luz ultravioleta, infrarroja, etc. Por otra parte podemos mencionar los sensores basados en el principio del eco como es el caso de los radares y los equipos de ultrasonido.&amp;lt;br&amp;gt;La variedad de sensores utilizados en sistemas de visión artificial se ha expandido hasta dominios insospechados en este aspecto estos sistemas superan ampliamente al sistema de visión humano el cual sólo puede tomar información visual dentro del espectro visible. Sin embargo no cabe duda que los sensores más utilizados, en aplicaciones que requieran de este tipo de sistemas, son la cámaras ya sean estas fotográficas o de video.&amp;lt;br&amp;gt;Las cámaras son las encargadas de captar la información luminosa de la escena a analizar y convertirla en una señal, analógica o digital, para ser utilizada por los sistemas de procesamiento.&amp;lt;br&amp;gt;Existen varios tipos de cámaras digitales, las cuales se dividen en función de: &lt;br /&gt;
&lt;br /&gt;
*Modo de captar la información de la escena. Dentro de esta categoría se pueden mencionar las cámaras basadas en tecnología Vidicom, Orticom y CCD.&lt;br /&gt;
*Modo de exploración. Aquí se encuentran las cámaras de exploración de línea y área.&lt;br /&gt;
*Estado sólido y no sólido.&lt;br /&gt;
&lt;br /&gt;
&amp;amp;nbsp;&lt;br /&gt;
&lt;br /&gt;
=== Iluminación. ===&lt;br /&gt;
&lt;br /&gt;
La iluminación de una escena es uno de los puntos sensibles en un sistema de visión. Las fuentes de luz se deben escoger en función de la aplicación que se desea realizar, una fuente mal escogida puede traer consigo un sin número de anormalidades difíciles de eliminar como son el caso de las sombras, las reflexiones y el bajo contraste. Es por ello que el conocimiento del tipo de iluminación a utilizar se debe tener muy en cuenta.&amp;lt;br&amp;gt;Iluminación tipo LED: La luz emitida por este tipo de fuente presenta como ventaja fundamental que tiene naturaleza monocromática, estos dispositivos presentan una larga vida útil, alto rendimiento y requieren de una fuente de alimentación de muy baja potencia además presentan un costo excesivamente bajo. Sus principales desventajas son que emiten poca intensidad y que en ocasiones dos LEDs similares presentan diferencias en la longitud de onda de la luz que emiten.&amp;lt;br&amp;gt;Flash: Normalmente se utilizan para captar imágenes en movimiento, son fuentes de luz de gran intensidad luminosa que se ve poco afectada por la luz ambiente. Su principal desventaja es la fuente de alimentación las cuales deben estar bien sincronizadas con le sistema de captura de la imagen, presentan gran disipación de calor y pierden luminosidad con el tiempo. A su favor podemos decir que son fuentes extremadamente rápidas.&amp;lt;br&amp;gt;Láser: Muchos hemos escuchado hablar de lo extremadamente direccional de la luz emitida por este tipo de fuente además presenta la característica de ser monocromática. Se postula como una fuente de luz casi perfecta aunque su inconveniente principal es su costo y la necesidad de colocarle dispositivos auxiliares para realizar barridos de la zona de interés.&amp;lt;br&amp;gt;Lámpara Incandescente: Su iluminación es bastante homogénea aunque presenta las dificultades de ser consumidoras y disipadoras de calor. No presentan tiempos de vida largo aunque si son muy baratas.&amp;lt;br&amp;gt;Lámparas Fluorescentes: Su iluminación es muy clara aunque presentan tiempos de vida cortos y las pérdidas de iluminación con el tiempo son acentuadas. El costo de este tipo de fuente es bajo.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Tarjetas digitalizadoras. ===&lt;br /&gt;
&lt;br /&gt;
La función de estas tarjetas es captar la señal que ofrece el sensor de imagen y convertirla a formato digital y entregarla al dispositivo inteligente, llámese PC o PLC, para su posterior análisis. Una muestra de este tipo de dispositivo se observa en la figura 1.4.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Las funciones principales que realiza este tipo de dispositivo son: &lt;br /&gt;
&lt;br /&gt;
#Recoger la señal analógica procedente de la cámara. &lt;br /&gt;
#Convertir la señal analógica en digital. &lt;br /&gt;
#Almacenar la señal digital en memoria. &lt;br /&gt;
#Las tarjetas comerciales incluyen: Memoria propia, funciones de procesado, conversores digital-analógico y analógico-digital e incluso presentación en pantalla de la imagen.&lt;br /&gt;
&lt;br /&gt;
&amp;amp;nbsp;&lt;br /&gt;
&lt;br /&gt;
=== &amp;amp;nbsp;Análisis de Imágenes Digitales. ===&lt;br /&gt;
&lt;br /&gt;
Una vez captada la imagen por el sensor y transmitida al dispositivo donde será procesada, el paso siguiente es realizar la extracción de la información explícita que encierra dicha imagen, por ejemplo posición de los objetos, forma, textura etc.&amp;lt;br&amp;gt;Las técnicas utilizadas para realizar la extracción de esta información se dividen en cuatro grupos fundamentales: &lt;br /&gt;
&lt;br /&gt;
#Preprocesado.&lt;br /&gt;
#Segmentación.&lt;br /&gt;
#Descripción.&lt;br /&gt;
#Reconocimiento.&lt;br /&gt;
&lt;br /&gt;
&amp;amp;nbsp;&lt;br /&gt;
&lt;br /&gt;
==== Preprocesado ====&lt;br /&gt;
&lt;br /&gt;
Este grupo de funciones se especializa en realizarle mejoras a la imagen captada, es decir resalta un sin número de características que conllevan a elevar la calidad de la imagen a la hora de ser analizada. Dentro de las funciones más comunes se encuentra la eliminación del ruido, el cambio de contraste y brillo, las transformaciones geométricas. &amp;lt;br&amp;gt;[Mazo, et.al,1996],[Perez,2000], [Rosenfeld,Kak,1982], [Gonzalez ,1979], son algunos trabajos que describen estas técnicas.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==== Segmentación ====&lt;br /&gt;
&lt;br /&gt;
La clasificación de la escena en sus partes u objetos es a lo que se le llama segmentación de la imagen. Estas técnicas se basan en encontrar donde se encuentran grupos de pixels que conformen un ente a clasificar (objeto), para ello estas técnicas se basan en los principios de discontinuidad y similitud. [Rosenfeld, Davis, 1997], [Sugata,1996], [Smith,1996].&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==== Descripción ====&lt;br /&gt;
&lt;br /&gt;
Estas técnicas se basan en extraer, del ente a estudiar, las características que lo diferencian de los demás. Para realizar esta extracción de características es necesario realizar un estudio del objeto a analizar y extrae con cuidado las características invariantes que posea. Estas características deben ser, generalmente, independientes a rotaciones, escalamientos corrimientos de dicho objeto. Dentro de estas características podemos mencionar, área perímetro, circularidad, patrones de texturas, rasgos de formas, etc.&amp;lt;br&amp;gt;[Mazo, et.al,1996], [Rosenfeld,Daves,1997].&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;amp;nbsp;&lt;br /&gt;
&lt;br /&gt;
==== Reconocimiento&amp;lt;br&amp;gt; ====&lt;br /&gt;
&lt;br /&gt;
Una vez obtenidas las características que describen el objeto a estudiar, se pasa al reconocimiento del mismo, esto no es más que la clasificación, utilizando cualquier técnica conocida, llámese inteligencia artificial, búsquedas deductivas en base de datos, comparación con patrones etc.&amp;lt;br&amp;gt;Dentro de las técnicas más utilizadas se encuentra la utilización de redes neuronales artificiales, algoritmos genéticos y métodos estadísticos avanzados. [Amir,1997], [Bishop,1998], [Fukunaga,1990].&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;amp;nbsp;&lt;br /&gt;
&lt;br /&gt;
Fuentes &lt;br /&gt;
&lt;br /&gt;
&amp;amp;nbsp; &lt;br /&gt;
&lt;br /&gt;
[[Category:Sistemas_Automatizados]]&lt;/div&gt;</summary>
		<author><name>Moises cedai</name></author>
		
	</entry>
	<entry>
		<id>https://www.ecured.cu/index.php?title=Visi%C3%B3n_Artificial&amp;diff=27929</id>
		<title>Visión Artificial</title>
		<link rel="alternate" type="text/html" href="https://www.ecured.cu/index.php?title=Visi%C3%B3n_Artificial&amp;diff=27929"/>
		<updated>2010-03-08T21:31:20Z</updated>

		<summary type="html">&lt;p&gt;Moises cedai: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''{{Desarrollo}}''' &lt;br /&gt;
&lt;br /&gt;
'''Visión Artificial'''&lt;br /&gt;
&lt;br /&gt;
También conocida como ''Visión por Computadora.''&lt;br /&gt;
&lt;br /&gt;
Puede considerarse como el conjunto de todas aquellas técnicas y modelos que nos permitan la adquisición, procesamiento, análisis y explicación de cualquier tipo de información espacial del mundo real obtenida a través de imágenes digitales. &lt;br /&gt;
&lt;br /&gt;
==Otras Definiciones==&lt;br /&gt;
&lt;br /&gt;
''Visión Artificial es la ciencia que estudia, utilizando computadoras digitales, los procesos de obtención, caracterización, interpretación de la información procedentes de imágenes tomadas de un mundo tridimensional.''&lt;br /&gt;
&lt;br /&gt;
''La Visión es un proceso de tratamiento de información que permite obtener una descripción simbólica del mundo real a partir de imágenes.''&lt;br /&gt;
&lt;br /&gt;
''La Visión Artificial parece fácil  pero…,Como hacemos para identificar la forma de una nube, que casi todo el mundo sabe identificar pero casi nadie sabe explicar?, Porque identificamos perfectamente un objeto independientemente de la perspectiva que tengamos de él, qué es común a cualquier plano de visión?.''&lt;br /&gt;
&lt;br /&gt;
==Antecedentes==&lt;br /&gt;
&lt;br /&gt;
== Sistema de Visión Humano  ==&lt;br /&gt;
&lt;br /&gt;
Volviendo a la pregunta de ¿porqué no realizar un modelado perfecto del sistema de visión humano e implementarlo en una computadora?&amp;lt;br&amp;gt;La respuesta no es sencilla, gran cantidad de estudios demuestran claramente que nuestro sistema visual lejos de ser perfecto contiene una serie de irregularidades que no deben ser modeladas para lograr un sistema artificial que supere al humano. No existe ninguna razón para modelar los errores de nuestro sistema.&amp;lt;br&amp;gt;Para realizar un bosquejo de la argumentación anterior realizaremos un estudio de nuestro sistema de visión y observaremos los puntos débiles y sus fortalezas.&amp;lt;br&amp;gt;Todo sistema de visión está compuesto por tres partes fundamentales:&lt;br /&gt;
&lt;br /&gt;
#Las señales que percibimos.&amp;amp;nbsp;&lt;br /&gt;
#El medio en que se transmiten.&lt;br /&gt;
#Los mecanismos de decodificación del sistema receptor y/o cerebro.&lt;br /&gt;
&lt;br /&gt;
Gran parte de las técnicas de procesamiento de señales están asociadas a problemas en la adquisición de dichas señales y más en particular al tipo de sensor usado y al medio a través del cual se han obtenido. &amp;lt;br&amp;gt;El ojo humano, como sensor, es un mecanismo extremadamente especializado, sin embargo el proceso de formación de la imagen que se lleva a cabo en su interior puede considerarse como genérico para cualquier otro sensor de tipo visual. Es por ello que el estudio del funcionamiento del ojo como sensor mejor adaptado al procesamiento de señales visuales es de gran interés para conocer aspectos básicos de los métodos de captación de imágenes. &amp;lt;br&amp;gt;Antes de continuar debemos tener en cuenta que la formación de imágenes a partir de energía electromagnética no es la única forma posible que existe en la naturaleza. Existen otros tipos de ondas como las acústicas que permiten a determinados seres vivos percibir en ambientes de completa oscuridad. Este tipo de percepciones pueden ser representadas hoy en día en términos de una imagen. &amp;lt;br&amp;gt;Una imagen puede describirse como un mapa espacial que sobre una determinada información que nos ofrece algún tipo de sensor. Ejemplos de este tipo de mapas son nuestras percepciones de una determinada situación o escena a partir de nuestros sistemas sensoriales (vista, oído, tacto, gusto, y olfato). Ahora nos restringiremos al caso de la percepción visual. &amp;lt;br&amp;gt;Para centrar aun más nuestro estudio nos preguntaremos sobre el significado real de lo que significa ver o adquirir información a través de un sistema sensorial de tipo visual. Si nos centramos en el modelo visual humano asociaremos el concepto de ver con el de percibir una señal luminosa con una intensidad mínima y en un rango de frecuencia espectral dado. Sin embargo hoy en día son bien conocidas las posibilidades de obtener imágenes a partir de sensores que trabajen en condiciones muy distintas de iluminación a las que es sensible el ojo humano, por ejemplo, el espectro infrarrojo, rayos X, etc. Así pues, la posibilidad de formar imágenes debemos asociarla al tipo de sensor usado y a las posibilidades de que dicho sensor sea capaz de captar y decodificar la información que le llega. &amp;lt;br&amp;gt;El espectro electromagnético puede entenderse como una función continua de la longitud de onda que en su totalidad caracteriza, de forma absoluta, una materia o sustancia. La teoría básica de las ondas describe la energía electromagnética como ondas sinuosidades que viajan a la velocidad de la luz. La distancia entre dos picos consecutivos de dichas ondas es lo que se conoce por longitud de onda, y el número de picos que pasan por un punto del espacio en cada unidad de tiempo, se denomina frecuencia de la onda. Estos conceptos son bien conocidos de la física clásica. El espectro visible se encuentra dentro de los valores de 350 a 750 nm. &amp;lt;br&amp;gt;Históricamente el uso de estas dos fuentes de información, el espectro y la geometría, han sido usadas de forma independiente. Todos los estudios dedicados al tratamiento y análisis de imágenes de tipo visual han hecho especial énfasis en los aspectos geométricos de las formas encontradas en las escenas, y aquellos otros estudios relacionados con la determinación de recursos naturales a través de sensores remotos han hecho un especial énfasis en las propiedades espectrales de la escena. Si bien esta dicotomía en ambos casos ha venido impuesta por los objetivos de la aplicación, parece claro que el uso combinado de ambas fuentes de información debe ser un objetivo de las técnicas de análisis de imágenes. &amp;lt;br&amp;gt;Una vez que tenemos conocimiento de la composición de la señal a analizar podemos pasar al estudio del sensor que debe captar la información. En el caso de nuestro sistema de visión, el ojo se perfila como nuestro sensor del espectro visible. Como puede verse en la Figura 1.1, el ojo es casi una esfera de unos 20mm de diámetro, formada por un conjunto de membranas denominadas cornea, esclera, coroide y retina. La cornea y la esclera, constituyen las envolturas externas anterior y posterior del ojo respectivamente. La capa coroidal además de alimentar el ojo a través de sus vasos sanguíneos, tiene la misión de absolver las luces extrañas que entran el ojo así como de amortiguar el efecto de dispersión de la luz dentro del globo ocular. El iris o diafragma esta situado en la parte anterior del coroide, y tiene como misión controlar la cantidad de luz que entra en el ojo. Para ello, la pupila o parte central del iris puede cambiar de tamaño en función de la luminosidad incidente desde 2mm a 8mm de diámetro. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Image:Ojo.JPG|frame|center|666x384px|Esquema descriptor del ojo humano]]&amp;amp;nbsp;&lt;br /&gt;
&lt;br /&gt;
La lente del ojo esta formada por capas concéntricas de células fibrosas y esta sujeta al coroide a través de fibras, esta compuesta principalmente por agua (60%-70%), grasa 6% y proteínas. En la lente se absorbe cerca del 8% del espectro de luz visible así como una gran proporción de luz infrarroja y ultravioleta. &amp;lt;br&amp;gt;La membrana más interna del ojo es la retina que cubre toda la pared interna del ojo. Cuando la luz llega al ojo la imagen que transporta se forma en la retina por la sensibilización de dos clases de receptores: los bastones y los conos. &amp;lt;br&amp;gt;El número de conos existentes en un ojo esta entre 6-7 millones y su situación dentro del ojo se concentra alrededor de un punto llamado fóvea. La misión de los conos dentro del ojo es doble. Por un lado son responsables de la detección del color y por otro ayudan a resolver los detalles finos de la imagen. &amp;lt;br&amp;gt;Cuando una persona quiere resolver detalles finos en una imagen intenta que esta se forme en su retina alrededor de la fóvea, consiguiendo por tanto, que los conos sean mayoritariamente los receptores de la luz. La visión a través de los conos se denomina visión fotocópica o de luz brillante. &amp;lt;br&amp;gt;Por otro lado, el número de bastones existentes en un ojo es muy superior al de conos y esta entre 75-150 millones. Los bastones se distribuyen sobre toda la retina y al igual que los conos tienen una doble misión. Por un lado son responsables de dar una impresión general del campo de visión y por otro son responsables de la sensibilidad a niveles bajos de iluminación. Los bastones no son sensibles al color. Un objeto que a la luz del día tiene colores vivos, observado a la luz de la luna aparece sin colores, esto es debido a que tan solo los bastones están estimulados. A la visión a través de bastones se le denomina visión escotópica o de luz tenue.&amp;lt;br&amp;gt;El ojo humano es capaz de adaptarse en un rango de valores de iluminación de aproximadamente l0 órdenes de magnitud. El punto más importante a la hora de interpretar este enorme rango es el hecho de que el ojo no opera de forma simultánea sobre todo el rango si no que en cada caso y en función de la luminosidad medía existente se hace sensible a un rango alrededor de dicho valor medio. Dicho intervalo de sensibilidad esta definido de manera que el ojo considera como negro todos aquellos valores que están por debajo del límite inferior del intervalo. El límite superior no se satura como el inferior, pero si queremos que el ojo sea sensible a un determinado rango de luminosidad, habremos de impedir que el ojo reciba valores de intensidad luminosa muy superiores, ya que en ese caso trataría de adaptarse a los valores más intensos a costa de perder sensibilidad en los menos intensos. Este efecto de adaptación se denomina adaptación al brillo. Numerosos experimentos han mostrado que el brillo subjetivo percibido es una función logarítmica de la intensidad de luz incidente en el ojo. &amp;lt;br&amp;gt;El sistema de visión humano como otras partes de la anatomía del cuerpo humano es fruto de la evolución. Como consecuencia de esto el sistema de visión humano responde a unos patrones mejor que otros, por otro lado puede llegar a conclusiones erradas al interpretar situaciones ambiguas por la existencia de ilusiones visuales, ambigüedades e inconsistencias. Marr detalla nuestro sistema en su trabajo [Marr, 1982].&amp;lt;br&amp;gt;Las ambigüedades son muy frecuentes y se basan en que una figura puede tener más de una posible interpretación. Múltiples interpretaciones pueden coexistir o una puede dominar. &amp;lt;br&amp;gt;Los investigadores han demostrado que inferimos de nuestras imágenes en la retina más de lo que de verdad está soportado por la geometría y física de la formación de imágenes. &amp;lt;br&amp;gt;Helmhotz en su libro Handbook of Physiological Optics publicado a mediados del siglo pasado expresó que cada imagen es una imagen de algo sólo para aquel que conoce como leerla, y que está capacitado con la ayuda de la imagen a formar una idea de la cosa. &amp;lt;br&amp;gt;Esta afirmación nos muestra que el sistema visual humano no realiza inferencias precisas y exactas basadas en la física de la formación de imágenes en el ojo, sino que el sistema visual invoca reglas que se obtienen y están dirigidas por la experiencia previa del individuo y tal vez por la especie. &amp;lt;br&amp;gt;Como se pudo apreciar nuestro sistema de visión ha evolucionado y presenta sistemas de adaptación increíbles a los cambios de iluminación entre otras de sus fortalezas, sin embargo también presenta debilidades que no deben ser tomadas en cuenta a la hora de realizar un sistema que lo simule.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Sistema de Visión Artificial==&lt;br /&gt;
&lt;br /&gt;
==Fuentes==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;amp;nbsp;[[Category:Sistemas_Automatizados]]&lt;/div&gt;</summary>
		<author><name>Moises cedai</name></author>
		
	</entry>
	<entry>
		<id>https://www.ecured.cu/index.php?title=Visi%C3%B3n_Artificial&amp;diff=27923</id>
		<title>Visión Artificial</title>
		<link rel="alternate" type="text/html" href="https://www.ecured.cu/index.php?title=Visi%C3%B3n_Artificial&amp;diff=27923"/>
		<updated>2010-03-08T21:27:58Z</updated>

		<summary type="html">&lt;p&gt;Moises cedai: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''{{Desarrollo}}''' &lt;br /&gt;
&lt;br /&gt;
'''Visión Artificial'''&lt;br /&gt;
&lt;br /&gt;
También conocida como ''Visión por Computadora.''&lt;br /&gt;
&lt;br /&gt;
Puede considerarse como el conjunto de todas aquellas técnicas y modelos que nos permitan la adquisición, procesamiento, análisis y explicación de cualquier tipo de información espacial del mundo real obtenida a través de imágenes digitales. &lt;br /&gt;
&lt;br /&gt;
==Otras Definiciones==&lt;br /&gt;
&lt;br /&gt;
''Visión Artificial es la ciencia que estudia, utilizando computadoras digitales, los procesos de obtención, caracterización, interpretación de la información procedentes de imágenes tomadas de un mundo tridimensional.''&lt;br /&gt;
&lt;br /&gt;
''La Visión es un proceso de tratamiento de información que permite obtener una descripción simbólica del mundo real a partir de imágenes.''&lt;br /&gt;
&lt;br /&gt;
''La Visión Artificial parece fácil  pero…,Como hacemos para identificar la forma de una nube, que casi todo el mundo sabe identificar pero casi nadie sabe explicar?, Porque identificamos perfectamente un objeto independientemente de la perspectiva que tengamos de él, qué es común a cualquier plano de visión?.''&lt;br /&gt;
&lt;br /&gt;
==Antecedentes==&lt;br /&gt;
&lt;br /&gt;
== Sistema de Visión Humano ==&lt;br /&gt;
&lt;br /&gt;
Volviendo a la pregunta de ¿porqué no realizar un modelado perfecto del sistema de visión humano e implementarlo en una computadora?&amp;lt;br&amp;gt;La respuesta no es sencilla, gran cantidad de estudios demuestran claramente que nuestro sistema visual lejos de ser perfecto contiene una serie de irregularidades que no deben ser modeladas para lograr un sistema artificial que supere al humano. No existe ninguna razón para modelar los errores de nuestro sistema.&amp;lt;br&amp;gt;Para realizar un bosquejo de la argumentación anterior realizaremos un estudio de nuestro sistema de visión y observaremos los puntos débiles y sus fortalezas.&amp;lt;br&amp;gt;Todo sistema de visión está compuesto por tres partes fundamentales:&amp;lt;br&amp;gt;#&amp;amp;nbsp;Las señales que percibimos.&amp;amp;nbsp;&amp;lt;br&amp;gt;# El medio en que se transmiten.&amp;lt;br&amp;gt;#Los mecanismos de decodificación del sistema receptor y/o cerebro.&amp;lt;br&amp;gt;Gran parte de las técnicas de procesamiento de señales están asociadas a problemas en la adquisición de dichas señales y más en particular al tipo de sensor usado y al medio a través del cual se han obtenido. &amp;lt;br&amp;gt;El ojo humano, como sensor, es un mecanismo extremadamente especializado, sin embargo el proceso de formación de la imagen que se lleva a cabo en su interior puede considerarse como genérico para cualquier otro sensor de tipo visual. Es por ello que el estudio del funcionamiento del ojo como sensor mejor adaptado al procesamiento de señales visuales es de gran interés para conocer aspectos básicos de los métodos de captación de imágenes. &amp;lt;br&amp;gt;Antes de continuar debemos tener en cuenta que la formación de imágenes a partir de energía electromagnética no es la única forma posible que existe en la naturaleza. Existen otros tipos de ondas como las acústicas que permiten a determinados seres vivos percibir en ambientes de completa oscuridad. Este tipo de percepciones pueden ser representadas hoy en día en términos de una imagen. &amp;lt;br&amp;gt;Una imagen puede describirse como un mapa espacial que sobre una determinada información que nos ofrece algún tipo de sensor. Ejemplos de este tipo de mapas son nuestras percepciones de una determinada situación o escena a partir de nuestros sistemas sensoriales (vista, oído, tacto, gusto, y olfato). Ahora nos restringiremos al caso de la percepción visual. &amp;lt;br&amp;gt;Para centrar aun más nuestro estudio nos preguntaremos sobre el significado real de lo que significa ver o adquirir información a través de un sistema sensorial de tipo visual. Si nos centramos en el modelo visual humano asociaremos el concepto de ver con el de percibir una señal luminosa con una intensidad mínima y en un rango de frecuencia espectral dado. Sin embargo hoy en día son bien conocidas las posibilidades de obtener imágenes a partir de sensores que trabajen en condiciones muy distintas de iluminación a las que es sensible el ojo humano, por ejemplo, el espectro infrarrojo, rayos X, etc. Así pues, la posibilidad de formar imágenes debemos asociarla al tipo de sensor usado y a las posibilidades de que dicho sensor sea capaz de captar y decodificar la información que le llega. &amp;lt;br&amp;gt;El espectro electromagnético puede entenderse como una función continua de la longitud de onda que en su totalidad caracteriza, de forma absoluta, una materia o sustancia. La teoría básica de las ondas describe la energía electromagnética como ondas sinuosidades que viajan a la velocidad de la luz. La distancia entre dos picos consecutivos de dichas ondas es lo que se conoce por longitud de onda, y el número de picos que pasan por un punto del espacio en cada unidad de tiempo, se denomina frecuencia de la onda. Estos conceptos son bien conocidos de la física clásica. El espectro visible se encuentra dentro de los valores de 350 a 750 nm. &amp;lt;br&amp;gt;Históricamente el uso de estas dos fuentes de información, el espectro y la geometría, han sido usadas de forma independiente. Todos los estudios dedicados al tratamiento y análisis de imágenes de tipo visual han hecho especial énfasis en los aspectos geométricos de las formas encontradas en las escenas, y aquellos otros estudios relacionados con la determinación de recursos naturales a través de sensores remotos han hecho un especial énfasis en las propiedades espectrales de la escena. Si bien esta dicotomía en ambos casos ha venido impuesta por los objetivos de la aplicación, parece claro que el uso combinado de ambas fuentes de información debe ser un objetivo de las técnicas de análisis de imágenes. &amp;lt;br&amp;gt;Una vez que tenemos conocimiento de la composición de la señal a analizar podemos pasar al estudio del sensor que debe captar la información. En el caso de nuestro sistema de visión, el ojo se perfila como nuestro sensor del espectro visible. Como puede verse en la Figura 1.1, el ojo es casi una esfera de unos 20mm de diámetro, formada por un conjunto de membranas denominadas cornea, esclera, coroide y retina. La cornea y la esclera, constituyen las envolturas externas anterior y posterior del ojo respectivamente. La capa coroidal además de alimentar el ojo a través de sus vasos sanguíneos, tiene la misión de absolver las luces extrañas que entran el ojo así como de amortiguar el efecto de dispersión de la luz dentro del globo ocular. El iris o diafragma esta situado en la parte anterior del coroide, y tiene como misión controlar la cantidad de luz que entra en el ojo. Para ello, la pupila o parte central del iris puede cambiar de tamaño en función de la luminosidad incidente desde 2mm a 8mm de diámetro. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Image:Ojo.JPG|frame|center|605x312px|Esquema descriptor del ojo humano]]&lt;br /&gt;
&lt;br /&gt;
==Sistema de Visión Artificial==&lt;br /&gt;
&lt;br /&gt;
==Fuentes==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;amp;nbsp;[[Category:Sistemas_Automatizados]]&lt;/div&gt;</summary>
		<author><name>Moises cedai</name></author>
		
	</entry>
	<entry>
		<id>https://www.ecured.cu/index.php?title=Archivo:Ojo.JPG&amp;diff=27903</id>
		<title>Archivo:Ojo.JPG</title>
		<link rel="alternate" type="text/html" href="https://www.ecured.cu/index.php?title=Archivo:Ojo.JPG&amp;diff=27903"/>
		<updated>2010-03-08T21:16:11Z</updated>

		<summary type="html">&lt;p&gt;Moises cedai: Esquema descriptor del ojo humano.&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Sumario ==&lt;br /&gt;
Esquema descriptor del ojo humano.&lt;br /&gt;
== Estado de copyright: ==&lt;br /&gt;
&lt;br /&gt;
== Fuente: ==&lt;/div&gt;</summary>
		<author><name>Moises cedai</name></author>
		
	</entry>
	<entry>
		<id>https://www.ecured.cu/index.php?title=Visi%C3%B3n_Artificial&amp;diff=27888</id>
		<title>Visión Artificial</title>
		<link rel="alternate" type="text/html" href="https://www.ecured.cu/index.php?title=Visi%C3%B3n_Artificial&amp;diff=27888"/>
		<updated>2010-03-08T21:09:18Z</updated>

		<summary type="html">&lt;p&gt;Moises cedai: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''{{Desarrollo}}''' &lt;br /&gt;
&lt;br /&gt;
'''Visión Artificial'''&lt;br /&gt;
&lt;br /&gt;
También conocida como ''Visión por Computadora.''&lt;br /&gt;
&lt;br /&gt;
Puede considerarse como el conjunto de todas aquellas técnicas y modelos que nos permitan la adquisición, procesamiento, análisis y explicación de cualquier tipo de información espacial del mundo real obtenida a través de imágenes digitales. &lt;br /&gt;
&lt;br /&gt;
==Otras Definiciones==&lt;br /&gt;
&lt;br /&gt;
''Visión Artificial es la ciencia que estudia, utilizando computadoras digitales, los procesos de obtención, caracterización, interpretación de la información procedentes de imágenes tomadas de un mundo tridimensional.''&lt;br /&gt;
&lt;br /&gt;
''La Visión es un proceso de tratamiento de información que permite obtener una descripción simbólica del mundo real a partir de imágenes.''&lt;br /&gt;
&lt;br /&gt;
''La Visión Artificial parece fácil  pero…,Como hacemos para identificar la forma de una nube, que casi todo el mundo sabe identificar pero casi nadie sabe explicar?, Porque identificamos perfectamente un objeto independientemente de la perspectiva que tengamos de él, qué es común a cualquier plano de visión?.''&lt;br /&gt;
&lt;br /&gt;
==Antecedentes==&lt;br /&gt;
&lt;br /&gt;
==Sistema de Visión Humano==&lt;br /&gt;
&lt;br /&gt;
==Sistema de Visión Artificial==&lt;br /&gt;
&lt;br /&gt;
==Fuentes==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;amp;nbsp;[[Category:Sistemas_Automatizados]]&lt;/div&gt;</summary>
		<author><name>Moises cedai</name></author>
		
	</entry>
	<entry>
		<id>https://www.ecured.cu/index.php?title=Visi%C3%B3n_Artificial&amp;diff=27868</id>
		<title>Visión Artificial</title>
		<link rel="alternate" type="text/html" href="https://www.ecured.cu/index.php?title=Visi%C3%B3n_Artificial&amp;diff=27868"/>
		<updated>2010-03-08T20:52:47Z</updated>

		<summary type="html">&lt;p&gt;Moises cedai: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''{{Desarrollo}}''' &lt;br /&gt;
&lt;br /&gt;
'''Visión Artificial'''&lt;br /&gt;
&lt;br /&gt;
También conocida como''Visión por Computadora.''&lt;br /&gt;
&lt;br /&gt;
&amp;amp;nbsp;[[Category:Sistemas_Automatizados]]&lt;/div&gt;</summary>
		<author><name>Moises cedai</name></author>
		
	</entry>
	<entry>
		<id>https://www.ecured.cu/index.php?title=Visi%C3%B3n_Artificial&amp;diff=27865</id>
		<title>Visión Artificial</title>
		<link rel="alternate" type="text/html" href="https://www.ecured.cu/index.php?title=Visi%C3%B3n_Artificial&amp;diff=27865"/>
		<updated>2010-03-08T20:50:58Z</updated>

		<summary type="html">&lt;p&gt;Moises cedai: Página creada con ''''{{Desarrollo}}'''  &amp;amp;nbsp;Category:Sistemas_Automatizados  Visión Artificial  También conocida como''Visión por Computadora.'''&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''{{Desarrollo}}''' &lt;br /&gt;
&amp;amp;nbsp;[[Category:Sistemas_Automatizados]]&lt;br /&gt;
&lt;br /&gt;
Visión Artificial&lt;br /&gt;
&lt;br /&gt;
También conocida como''Visión por Computadora.''&lt;/div&gt;</summary>
		<author><name>Moises cedai</name></author>
		
	</entry>
	<entry>
		<id>https://www.ecured.cu/index.php?title=Usuario:Moises_cedai&amp;diff=27825</id>
		<title>Usuario:Moises cedai</title>
		<link rel="alternate" type="text/html" href="https://www.ecured.cu/index.php?title=Usuario:Moises_cedai&amp;diff=27825"/>
		<updated>2010-03-08T19:47:37Z</updated>

		<summary type="html">&lt;p&gt;Moises cedai: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''Moisés Herrera Vázquez'''&lt;br /&gt;
&lt;br /&gt;
Especialista en Automática&lt;br /&gt;
&lt;br /&gt;
Departamento de Investigación y Desarrollo&lt;br /&gt;
&lt;br /&gt;
Empresa de Automatización Integral, CEDAI&lt;br /&gt;
&lt;br /&gt;
Ministerio de Informática y las Comunicaciones&lt;br /&gt;
&lt;br /&gt;
Cuba&lt;br /&gt;
&lt;br /&gt;
Graduado, en el año 1998, de Ingeniéría en Automática en la [http://www.uclv.edu.cu Universidad Central &amp;quot;Marta Abreu&amp;quot; de las Villas, UCLV.]&lt;br /&gt;
&lt;br /&gt;
Graduado de la Maestría en Automática, mención en Robótica y Control Inteligente en el año 2003, en la misma institución.&lt;/div&gt;</summary>
		<author><name>Moises cedai</name></author>
		
	</entry>
	<entry>
		<id>https://www.ecured.cu/index.php?title=Usuario:Moises_cedai&amp;diff=27810</id>
		<title>Usuario:Moises cedai</title>
		<link rel="alternate" type="text/html" href="https://www.ecured.cu/index.php?title=Usuario:Moises_cedai&amp;diff=27810"/>
		<updated>2010-03-08T19:41:18Z</updated>

		<summary type="html">&lt;p&gt;Moises cedai: Página creada con ''''Moisés Herrera Vázquez'''  Especialista en Automática Departamento de Investigación y Desarrollo Empresa de Automatización Integral, CEDAI Ministerio de Informática y l…'&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''Moisés Herrera Vázquez'''&lt;br /&gt;
&lt;br /&gt;
Especialista en Automática&lt;br /&gt;
Departamento de Investigación y Desarrollo&lt;br /&gt;
Empresa de Automatización Integral, CEDAI&lt;br /&gt;
Ministerio de Informática y las Comunicaciones&lt;br /&gt;
Cuba&lt;br /&gt;
&lt;br /&gt;
Graduado, en el año 1998, de Ingeniéría en Automática en la [http://www.uclv.edu.cu Universidad Central &amp;quot;Marta Abreu&amp;quot; de las Villas, UCLV.]&lt;br /&gt;
&lt;br /&gt;
Graduado de la Maestría en Automática, mención en Robótica y Control Inteligente en el año 2003, en la misma institución.&lt;/div&gt;</summary>
		<author><name>Moises cedai</name></author>
		
	</entry>
</feed>