domingo, 21 de agosto de 2011

Resumen Cronologico


1946 ENAIC una de las primeras computadoras calculaba la densidad de neutrón transversal. Los resultados se reportaban por medio de dispositivos de impresión sencillos. Los dispositivos de  visualización permitían observar los resultados del procesamiento en el dispositivo.

1950 Fue construida la Whirlw ind para simular vuelos, es la primera computadora que utilizó un CRT (Tubo de Rayos Catódicos) como dispositivos.

50’s Continuó el desarrollo de los dispositivos de entrada. Se empleó un lápiz óptico para seleccionar símbolos en la pantalla.

1952 Se creó el primer videojuego de la historia llamado OXO, fue escrito para la computadora EDSAC.
EDSAC fue la primera computadora electónica capaz de almacenar programas.

1961 Se creó el primer videojuego interactivo de naves espaciales llamados Spacewar. Se escribió en una PDP-1.

1963 Se creo el primer sistema que permitía la manipulación directa de objetos gráficos. El sistema, fue creado para aplicaciones de diseño e ingeniería fue desarrollado por Ivan Sutherland. El sistema permitía dibujar puntos, segmentos de líneas rectas y arcos circulares.
Fue el primer sistema interactivo de gráficos por computadora.

1966 Bob Sproull fue el primero en implentar un sistema de realidad virtual, los usuarios podían ingresar virtualmente en una habitación y mirar en todas direcciones.
Ideas mostradas por primera vez en el Sketchpad:
  • Concepto de estructura jerárquica interna de una imagen y la definición de sub imágen.
  • Concepto de imágen maestra e instancias de imagen.
  • Concepto de restricción como método para especificar detalles de  la geometría.
  • Desplegar y manipular representaciones icónicas de las restricciones.
  • Copiar y crear instnacias de imágenes y restricciones.
  • Separación del sistema de coordenadas.
  • Operaciones recursivas aplicadas a las imágenes.

1965 Los CRT podían trazar líneas rectas entre dos puntos pero era necesario redibujarlas varias veces por sengundo, lo que solo era posible por medio de dispositivos muy costosos de hardeware. Estos dispositivos se denominaban pantallas de vector, de trazo o caligráficas. Este tipo fue introducido al mercado en 1965.

1970 Edwin Catmull de la Universidad de Utah. Creó una animación de su mano abriéndose y cerrándose.
Fred Parke creó una animación del rostro de su esposa.
La universidad de Utah atrajo gente de todas partes; mas tarde fundaría Adobe Systems.
Jim Clark también estuvo ahí despues fundaria Silicon Graphics Inc.
Los primeros avances en gráficos por computadora tridimensionales fue creado por esos pioneros. Para dibujar la representación tridimensional de un objeto en la pantala, la computadora debe determinar cuales superficies estan “detrás” del objeto dese la prespectiva del observador.
Se comenzarón a introducir los gráficos por computadora en el mundo de la televisión. Sistemas complejos de hardware y software como ANIMAC, SCANIMATE y CAESAR.

1971 Aparece el microprocesador. Usando tecnología de circuitos integrados desarrollada en 1959, diseñado por Altair 8800 de Micro Instrumentation Telemetry Systems se vendía alrededor de los 400 dólares.

1972 Nolan Kay Bushnell junto con un amigo creo el Ataria.
Comenzó el desarrollo de un videojuego llamado Pong. Siendo uno de los mas vendidos de la historia.
El primer video juego público y comercial de la hisotira fue el Galaxy Game. Después comenzaron a producirse otras máquinas en serie, la primera fue Computer Space.

70’s Don Greenberg creó un laboratorio de graficos por computadora que produjo nuevos métodos de simulación realista de superficies. Es bien conocido por sus trabajo en síntesis de imagenes realistas, y el método de radiosidad para el calculo.
Carpenter había construido modelos en 3D de diseños de aeroplanos.

1979 Carpenter tenia una idea de cómo generar un terreno fractal en animación.

1980 Fue mostrada una impactante película “Vol Libre”. Se trataba de un vuelo de alta velocidad a través de montañas fractales generadas por computadora. El programador fue Loren Carpenter.
Carpenter desarrolló varios algoritmos de renderizado. Después logro resolver varias dificultades técnicas y su película estuvo lista.

1986 Se formó Pixar.
John Lasseter, Ed Catmull y Ralph Guggenheim produjo el famoso software Renderman, es un API desarrollada por Pixar para escenas tridimensionaes y convertirlas en imagenes digitales foto realista.  

1991 Se impuso un nuevo estándar para los efectos con imagenes  generadas por computadora (CGI) El robot fue alternado entre el actor y una versión animada computarizada en 3D.

1994 Trajo películas llenas de gráficos por computadora como Forrest Gump.

1995 Se presentó la primera película de larga duración con gráficos y animaciones 3D por computadora: “Toy Story”.
Sony lanzó su consola de juegos PlayStation con un chip (ademas del CPU) de 3D acelerado por hardware capaz de dibujar 360,000 polígonos por segundo.

1996 La industria de los videojuegos experimentó un gran avance en los gráficos 3D con la salida de Quake de ID Software.

1997 El acelerador 3DFX Voodoo 3D. Este chip 3D con su increíble y extremadamente práctico desempeño en 3D.

1999 nVidia sacaron a la venta el primer GPU (Unidad Gráfica de Procesamiento), la GeForce256 fue la primera tarjeta 3D que poseía un motor de hardware.

2000 nVidia se convirtió en el estándar para el cómputo en casa.

2001 Nintendo lanzó Gamecube y Gameboy Advance.
Lanzamiento de Xbox de Microsoft con un procesador gráfico desarrollado por nVidia, disco duro, CPU Intel y mas.
La cinematografía se vio beneficiada con películas como Final Fantasy y The Spirits Within por crear humanos realistas en una película completamente generada por computadora.
Peliculas como Jurassic Pstk, A.I., y Lord of the rings presentan efectos especiales bien producidos.

2003 Aparecieron varias secuelas cinematográficas con grandes efectos especiales, X-Men 2, Matrix 2, Terminator 3 y Matrix revolutions.

2004 Juegos que aparecieron este año como FarCry fueron los primeros en utilizar los últimos avances en los gráficos por computadora como los shader de Direct X 9.0.
Doom 3 se presenta con gran calidad gráfica que se conseguía con el uso de la iluminación dinámica, sombras y el sonido surround.
Half-life 2 presentaba gráficos increíblemente realistas y creaba toda una nueva dimensión en el modo de juego con su implementado motor de física.

2007 La pelicula Spider-Man 3 usó el software Autodesk Maya para la animación en 3D, el modelado, texturizado y combinación de movimientos de los personajes y efectos visuales.
 

jueves, 18 de agosto de 2011

Glosario


Algoritmo LZW.

LZW es un algoritmo muy rápido tanto para la compresión como para la descompresión, basado en la multiplicidad de aparición de secuencias de caracteres en la cadena que se debe codificar. Su principio consiste en sustituir patrones con un código de índice y construir progresivamente un diccionario.
Además, funciona en bits y no en bytes, por lo tanto, no depende de la manera en que el procesador codifica información. Es uno de los algoritmos más populares y se utiliza particularmente en formatos TIFF y GIF.




API.
La interfaz de programación de aplicaciones, o también llamada API, es un conjunto de funciones y procedimiento que permiten la conexión de un software dentro de otro, pudiendo interactuar entre ellos.
Entre los más conocidos están el API de Facebook, Google, Flickr o Twitter, que pueden proporcionar interesantes contenidos y herramientas a nuestras páginas Web.



BMP

El formato BMP es uno de los más simples. Fue desarrollado por Microsoft e IBM en forma conjunta, lo que explica su uso particularmente amplio en plataformas Windows y OS/2. Un archivo BMP es un archivo de mapa de bits, es decir, un archivo de imagen de gráficos, con píxeles almacenados en forma de tabla de puntos que administra los colores como colores reales o usando una paleta indexada.

Clipping.
Es el fenómeno que se produce cuando un cuerpo sólido atraviesa otro "sin romperlo", es decir, si por ejemplo un personaje está pegado a la pared de una habitación y un brazo o parte de su cuerpo puede verse al otro lado de la pared. El clipping puede ser sólo parcial o total, es decir, tomando el ejemplo de antes, si el brazo atraviesa la pared pero no podemos interactuar con él se trata de un clipping parcial. Si con ese brazo podemos interactuar de manera normal como si realmente no estuviese esa pared ahí, por ejemplo en un shooter poder disparar y herir al personaje, se trata de un clipping total.


CRT
Son tubos de vacío de vidrio dentro de los cuales un cañón de electrones emite una corriente de electrones guiada por un campo eléctrico hacia una pantalla cubierta de pequeños elementos fosforescentes. 
El cañón de electrones está compuesto por un cátodo, un electrodo metálico con carga negativa, y uno o más ánodos (electrodos con carga positiva). El cátodo emite los electrones atraídos por el ánodo. El ánodo actúa como un acelerador y concentrador de los electrones, creando una corriente de electrones dirigida a la pantalla. Un campo magnético va guiando los electrones de derecha a izquierda y de arriba hacia abajo. Se crea con dos placas electrificadas X e Y (llamadas deflectores) que envían la corriente en dirección horizontal y vertical, respectivamente. 
Esta pantalla está cubierta con una capa fina de elementos fosforescentes, llamados fósforos, que emiten luz por excitación, es decir, cuando los electrones los golpean, creando de esta manera, un punto iluminado llamado píxel. 
La activación del campo magnético hace que los electrones sigan un patrón de barrido, al ir de izquierda a derecha y luego bajando a la siguiente fila una vez que han llegado al final. 



DirectX.
Es un conjunto de interfaces para la programación de aplicaciones (API) desarrollada por Microsoft. Este contiene toda una serie de librerías el cual están enfocados en el manejos de multimedios independientemente desde que plataforma se está ejecutando.
Para los programadores este ofrece varios beneficios. Al poder llamar estas librerías los desarrolladores no tiene que tomar en consideración todas las variables del ambiente donde se estaría ejecutando el multimedio. Ven a DirectX como una capa intermedia quien maneja toda comunicación entre la aplicación que produce el multimedio y los componentes de su PC.
·         DirectX incluye los siguientes componentes:
·         DirectDraw – Gráficas 2D
·         Direct3D – Gráficas 3D
·         DirectSound – Sonido 2D
·         DirectSound3D – Sonido 2D
·         DirectMusic – Música
·         DirectPlay – Network/Multiplayer
    DirectInput – Equipos para ingresar commando como lo son el teclado, ratón, controles de juegos, etc.
DirectX hizo su introducción con Windows 95.


Driver.
Un Driver, o controlador, es un programa que controla un dispositivo. Cada dispositivo, ya sea una impresora, un teclado, etc., debe tener un programa controlador.
Un controlador actúa como un traductor entre el dispositivo y los programas que utilizan el dispositivo. Cada dispositivo tiene su propio sistema de comandos especializados que solamente conoce su controlador.



DVD.

(Digital Versatile/Video Disc - Disco Versátil/Video Digital). Formato de almacenamiento digital de datos. Su  tamaño físico es de 12 cm de diámetro. Los DVD guardan los datos utilizando un sistema de archivos denominado UDF, el cual es una extensión del estándar ISO 9660.
Un DVD de capa simple puede guardar hasta 4,7 gigabytes (se le conoce como DVD-5).
Discos DVD±R DL (DVD-9): una cara, capa doble. 8.5 GB.
Discos DVD±R/RW (DVD-10): dos caras, capa simple en ambas. 9.4 GB.
Discos DVD+R (DVD-18): dos caras, capa doble en ambas. 17.1 GB.
La velocidad de transferencia de datos de una unidad DVD está dada en múltiplos de 1.350 kB/s, lo que significa que una unidad lectora de 16x, permite una transferencia de datos de 16 x 1.350 = 21.600 kB/s (21,09 MB/s).


Escalares
Existen cantidades que se pueden medir, pesar o contar, estas pueden ser expresadas por números o módulos llamados Escalares.


Frecuencia de Luz
La luz de menor frecuencia que podemos ver es la de color rojo. Las frecuencias visibles más  altas casi duplican la frecuencia del rojo y corresponden al color violeta. Las ondas  electromagnéticas cuya frecuencia es menor que la de la luz visible roja  se llaman infrarrojas. Las ondas electromagnéticas cuya frecuencia es mayor que la de la luz violeta se llaman ultravioleta. Estas ondas de frecuencia más elevada son causantes de las quemaduras de sol.


GIF
(Formato de Intercambio Gráfico) Se trata de un formato de archivo para imágenes creado por la empresa estadounidense Unisys. Este tipo de gráficos maneja un máximo de 256 colores y es el más común dentro del diseño de páginas de Internet, ya que son reconocidos y aceptados por todos los navegadores, otro factor importante es su poco peso, por lo cual se descargan muy rápido.

Intensidad luminosa
El flujo luminoso nos da una idea de la cantidad de luz que emite una fuente de luz, por ejemplo una bombilla, en todas las direcciones del espacio. Por contra, si pensamos en un proyector es fácil ver que sólo ilumina en una dirección. Parece claro que necesitamos conocer cómo se distribuye el flujo en cada dirección del espacio y para eso definimos la intensidad luminosa.
 Se conoce como intensidad luminosa al flujo luminoso emitido por unidad de ángulo sólido en una dirección concreta. Su símbolo es I y su unidad la candela (cd).


JPEG
Joint Photographic Experts Group es el método de compresión más utilizado actualmente para la compresión de imágenes con pérdida. Este método utiliza la transformada discreta del coseno (DCT), que se calcula empleando números enteros, por lo que se aprovecha de algoritmos de computación veloces. El JPEG consigue una compresión ajustable a la calidad de la imagen que se desea reconstruir.

LCD
Una pantalla de cristal líquido consiste en una fina capa de un cristal líquido, alrededor de 10 micrómetros de espesor, colocado entre dos placas de vidrio. El área de las placas determina el tamaño del aparato: los mayores, utilizados por las pantallas de televisión, tienen una longitud diagonal de 360 milímetros. Los fabricantes evaporan electrodos transparentes en la superficie interna de las placas de vidrio, y delgadas capas de "polimida" en los electrodos, para formar la celdadel aparato de cristal líquido. Las capas de polimida son tratadas especialmente para orientar las moléculas de cristal líquido, de modo que, en planos paralelos, los que están a un lado de la celda se ubiquen a 90 grados con respecto a los que están en el lado opuesto. Esto se conoce como celda "nemática torcida", porque la orientación molecular se "tuerce" de un lado de la celda a otro.

Finalmente, los filtros polarizantes flanquean la celda con sus ejes depolarización en forma paralela. Esto quiere decir que la luz se polariza en la medida en que entra a la celda y escapa por el otro lado sólo si su plano de polarización está lo suficientemente rotado en ángulo recto.





Lens Flare.
Destellos. Se presenta como pequeños círculos u óvalos de colores a lo largo de la imagen sin tener una razón aparente para su existencia. El destello de la lente es producido cuando algún rayo de luz de una fuente muy potente llega a la lente y se cuela a través de esta. Este rayo de luz “intruso” se refleja y rebota dentro de las imperfecciones de la lente creando dos tipos de manifestaciones: en primer lugar se muestra como una bruma, que lava los colores y reduce la saturación de estos, y en segundo lugar como los pequeños círculos que nombrábamos antes.


Luminancia
La luminancia es la intensidad aparente de la luz proveniente o reflejada por un objeto o punto determinado. Es cuantificada con candelas por metro cuadrado. El equivalente psicológico es brillo. En una transmisión de señal de vídeo, la luminancia es la componente que codifica la información de luminosidad de la imagen.
Luz ambiente
Luces que conforman un sistema de iluminación presente en el conjunto de la escena definiéndola de un modo simple y específico. El ejemplo más claro puede ser la luz solar o una bombilla que, colgando de un cable, ilumina el espacio total de una habitación. 


Mapping.
El mapeo de texturas es el método de adición de detalles, superficie o colores a un modelo 3D generado por computadora. En su aplicación a gráficos en 3D el pionero fue Edwin Catmull en su tésis de doctorado en 1974.
El mapeo de texturas permite cubrir objetos (a toda su forma o algunos de sus polígonos) con imágenes (texturas), permitiendo que dicho objeto luzca más real. De esta manera se logran imágenes de excelente realismo visual a relativo bajo costo computacional.
Una textura puede ser unidimensional, bidimensional o tridimensional.
El multitexturizado (multitexturing) es la aplicación de múltiples texturas a un mismo objeto.

Máquina de estado.
Son ciertos circuitos secuenciales que tienen un número determinado de estados (2^n). Pueden ser retroalimentados  (flip flops, biestables) o  máquinas sincrónicas temporizadas cuando utilizan  las primeras para crear circuitos cuyas entradas son examinadas y cuyas salidas cambian con respecto a una  señal de reloj controlada. En cualquier caso, se tienen unas entradas, unas salidas y unos estados.



Memoria VRAM

(Video Random Access Memory)
La memoria gráfica o de video determina su limitación con respecto al número de colores y resolución. Cuanta más memoria dispongamos más capacidad tendrá nuestra tarjeta de alcanzar resoluciones mayores y a mayor número de colores. Esta memoria viene integrada a la tarjeta de video. Antiguamente su capacidad difícilmente llegaba a 1 Mb, hoy puede superar los 128 Mb.

MPEG-1
Es el estándar inicial de compresión de audio y vídeo. Proporciona video con una resolución de 352x240 a 30 frames por segundo (fps). Esto produce una calidad de video levemente inferior a la calidad de los videos convencionales VCR. Incluye el formato de compresión de audio de Capa 3 (MP3).

OCR
Los sistemas de reconocimiento óptico de caracteres (OCR) transforman en texto una imagen escaneada. El punto de partida es una imagen digitalizada en formato TIFF o Bitmap, de la mayor nitidez y calidad posibles, y el resultado final un archivo de texto o para la Web (formato HTML).
El proceso de conversión de un documento impreso en un archivo informático comprende las siguientes etapas:
  • escaneado;
  • análisis de la compaginación;
  • reconocimiento óptico de caracteres;
  • escaneado de ilustraciones y cuadros.
A lo largo del proceso se efectúan controles de calidad de los archivos resultantes y se memorizan éstos en el formato apropia.

OpenGL
Open Graphics Library. Conjunto de especificaciones estándar que definen una API multilenguaje y multiplataforma para escribir aplicaciones o juegos que producen gráficos en 3D. Fue desarrollada originalmente por Silicon Graphics Incorporated (SGI).
Ofrece al programador un API sencilla y estable para que pueda generar gráficos en 2D y 3D por hardware. Consiste en más de 250 funciones diferentes que pueden ser usadas para graficar complejos escenarios tridimensionales usando simples primitivas.
Es muy popular en la industria de los videojuegos y es competencia directa (en plataformas Windows) del Direct3D desarrollado por Microsoft.
OpenGL es compatible para múltiples plataformas como ser Windows, Unix (Linux, MacOS), Playstation 3, etc.

Pipelines.
Se encuentran en la mayoría de las tarjetas gráficas, consiste en múltiples unidades aritméticas o CPUs completas, que implementan variados escenarios de operaciones típicas de renderizado, por ejemplo, cálculos de luz y colores, renderizado, proyección de perspectiva, etc.

PNG
Son las siglas de Portable Network Graphics, un formato de compresión de imágenes aprobado por el World Wide Web Consortium (W3C) como sustituto del formato .gif. Los archivo tipo .gif utilizan un algoritmo de compresión de datos que está patentado, mientras que el formato .png no está patentado y no necesita licencia para su utilización.
Se considera que el formato .jpg es mejor para fotografía digital mientras que los formatos .gif y .png son mejor para imágenes gráficas.
La mayoría de los exploradores actuales soportan este formato.

Raster.
Es una estructura o fichero de datos que representa una rejilla rectangular de píxeles o puntos de color, que se puede visualizar en un monitor, papel u otro dispositivo de representación.

RAW
RAW no es abreviatura, se traduce del inglés como no procesado, crudo. El archivo RAW contiene la información original de la imagen que recibe del sensor antes del procesamiento de la misma dentro de la cámara. Por esta razón es posible realizar el procesamiento después en el ordenador con un software especializado.
La ventaja de RAW es que ocupa menos espacio que TIFF. Además conserva la profundidad de color original y calidad de la imagen.

Raytracing.
El Raytracing técnica que permite generar imágenes tridimensionales por ordenador.
En RayTracing, partimos de los pixels de pantalla; para cada pixel, seguimos su línea de visión (la línea que recorrería el rayo de luz que lo "ilumina"), hasta llegar al objeto que "produce" ese rayo de luz. Si, a su vez, el objeto es un espejo o un cristal (es decir, no tiene un color propio, sino que transforma la luz que recibe), entonces continuamos el proceso; seguimos el rayo de luz que índice sobre ese punto del objeto, y así sucesivamente hasta llegar a la fuente original de luz.












Render.
render en inglés es un término usado en jerga informática para referirse al proceso de generar una imagen desde un modelo. Este término técnico es utilizado por los animadores o productores audiovisuales y en programas de diseño en 3D.




Renderización.
Del inglés rendering, renderizar. La renderización es el proceso de generar una imagen o animación a partir de un modelo, usando una aplicación de computadora.
El modelo es una descripción en tres dimensiones 
de objetos en un lenguaje o estructura de datos estrictamente definidos. El modelo debería contener geometría, punto de vista, textura e información de iluminación. La imagen resultado de la renderización es una imagen digital (raster).La renderización se utiliza en la producción de imágenes en 3D para juegos, diseño computacional, efectos especiales del cine y la TV, etc.



SVG

Los Gráficos Vectoriales Escalables (del inglés Scalable Vector Graphics) o SVG es una especificación para describir gráficos vectoriales bidimensionales, tanto estáticos como animados, en formato XML.
El SVG permite tres tipos de objetos gráficos:
Formas gráficas de vectores.
Imágenes de mapa de bits /digitales.
Texto.

Transformaciones.
Pueden ser representadas por una matriz.
Técnicamente, están compuestas por cualquier combinación de transformaciones lineales: traslación, escalamiento, rotación, deformación.
Usan un sistema homogéneo de coordenadas.
Vector Normal
El vector n=(A,B,C) es un vector normal al plano, es decir, perpendicular al plano.
Si P(x0, y0, z0) es un punto del plano, el vector PX=(x-x0, y-y0, z-z0) es perpendicular al vector n, y por tanto el producto escalar es cero.

Px *n = 0
De este modo también podemos determinar la ecuación general del plano, a partir de un punto y un vector normal.

VGA
(Video Graphics Array). Sistema gráfico de pantallas para PCs desarrollado por IBM. VGA se convirtió en un estándar de facto para PCs. Las tarjetas gráficas VGA estándares traían 256 KB de memoria de video.
VGA utiliza señales analógicas.

WAV
Wav (WAVEform audio file format) es un formato de audio digital (.wav) normalmente sin compresión de datos desarrollado y propiedad de Microsoft y de IBM que se utiliza para almacenar sonidos en el PC.






Referencias.
http://gemini.udistrital.edu.co/comunidad/profesores/jruiz/jairocd/texto/cirdig/maquinasdeesf.pdf