Tutorial para realizar un cubo con algunas diferencias de un cilindro y una esfera.
1.- Agregamos al cubo por defecto un cilindro en la parte media, de una medida de 0.3 unidades de radio.
2.- Agregar el modificador Booleano para realizar la diferencia del cubo con el cilindro.
3.- Dividir el cubo en 16 partes, para hacer los vertices de la diferencia menos marcados.
4.- Aplicar el modificador Booleano y remover el cilindro del cubo.
5.- Remover los vertices duplicados enntre la diferencia del cilindro con el cubo.
6.- En el modo editar, realizamos una escala del cilindro para evitar que al momento de suavizar el cilindro este tenga una aspecto amigable y no una explosión.
7.- Realizar las instrucciones anteriores con una esfera en la esquina del cubo, para deformar el cubo.
8.- Darle color al objeto y al fondo.
Este es mi trabajo final en Blender, sencillo.
Graficación
jueves, 1 de diciembre de 2011
martes, 29 de noviembre de 2011
Áreas relacionadas a la graficación
Procesamiento de imágenes
En el procesamiento digital de imágenes se distinguen dos niveles principales de manera general:
- Procesamiento de imágenes a bajo nivel
- Muy poco uso de conocimiento respecto al contenido de las imágenes.
- Comúnmente se reconoce una secuencia de cuatro para el procesamiento a bajo nivel: adquisición de la imagen, pre-procesamiento, segmentación de la imagen, descripción y clasificación de objetos.
- Entendimiento de imágenes a alto nivel
- Existe la capacidad de realizar toma de decisiones respecto al contenido de las imágenes.
Una característica es un atributo usado para hacer decisiones respecto a objetos en la imagen. Algunos atributos son naturales y se definen mediante la apariencia visual de la imagen, los artificiales, son el resultado de operaciones realizadas a la imagen.
Una imagen f(x,y) está dada por sus coordenadas espaciales y su brillo, y es representada matemáticamente en una matriz.
Las herramientas para la adquisición de imágenes transforman la imagen visual de un objeto físico y sus características intrínsecas en un conjunto de datos digitalizados, usados para procesarla.
El procesamiento digital de imágenes tiene diversas aplicaciones y problemas:
- Representación
- Transformación
- Modelado
- Restauración
- Reconstrucción
- Análisis
- Comprensión de datos
Se define como ruido cualquier entidad en las imágenes, datos o resultados intermedios que no son interesantes para la computación que se pretende llevar a cabo.
Las técnicas de filtraje son transformaciones de la imagen píxel a píxel, que dependen de los niveles de gris de los píxeles vecinos en la imagen original. El proceso de filtraje se realiza utilizando matrices denominadas máscaras, que son aplicadas sobre la imagen. Los filtros sirven para suavizar o realzar detalles de la imagen, o minimizar efectos de ruido.
Filtro gaussiano. Este filtro implementa máscaras que intentan imitar la forma de una gaussiana: G(x,y) = e - (x + y)² / 2σ², donde x, y son las coordenadas de la imagen y sigma una desviación estándar de la probabilidad de distribución asociada.
Filtro mediana (rango de vecindades). El objetivo del filtro mediana es reducir el empañamiento de los bordes. Este filtro reemplaza el píxel actualmente analizado en la imagen por la mediana del brillo con respecto a los vecinos más cercanos.
Filtro de suavizado direccional (preservación de bordes). La eliminación de ruido mediante suavizado distorsiona la información con respecto a los bordes. Que se calcula en varias direcciones según la ecuación:
I’ (x,y) = 1/Nθ(k,l)∈EθΣΣ I(x-k, y-l).
Filtro de suavizado conservador. Esta técnica de reducción del nivel de ruido emplea un algoritmo de filtración simple y rápido que sacrifica su poder de eliminación de ruido a cambio de preservar el detalle espacial de la frecuencia en una imagen, removiendo píxeles aislados con un valor muy alto o muy bajo.
Realce de contraste. Tiene como objetivo mejorar la calidad de las imágenes bajo ciertos criterios subjetivos del ojo humano. El contraste entre dos objetos se puede definir como la razón entre sus niveles de gris medios. La manipulación de contraste consiste en una transferencia radiométrica en cada píxel.
Filtro paso bajo es empleado para remover ruido de alta frecuencia espacial en una imagen digital. La reducción del ruido mediante el filtro de paso bajo se lleva a cabo mediante una cancelación de las variaciones más rápidas entre píxel y píxel.
Filtro paso alto opera mediante el análisis de los valores de cada píxel y cambiando estos de acuerdo a los valores de los píxeles vecinos. El filtro paso alto realza detalles de la imagen.
Filtro SUSAN (Smallest Univalue Segment Assimilating Nucleus). Preserva la estructura de la imagen alisando únicamente sobre los píxeles que se encuentran dentro de la región del píxel analizado (píxel central). Este filtro integra los mejores aspectos de los métodos de reducción de ruidos existentes incluyendo la preservación de bordes.
En el análisis de objetos dentro de las imágenes resulta esencial distinguir entre el objeto de interés y el resto de la imagen. Una de las técnicas más conocidas es la segmentación mediante la detección de bordes.
La detección de bordes es la aplicación de un algoritmo con esté proposito que dará como resultado un contorno. Su objetivo es obtener imágenes cuya salida muestre píxeles de mayor intensidad en los valores que detecten transiciones cercanas.
Alguno de los algoritmos de detección de bordes más comunes son:
Técnicas basadas en el gradiente: Operador de Roberts, Operador de Sobel, Operador de Prewitt, Operador Isotrópico.
Operadores basados en cruces por cero: Operador de Marr-Hildreth, Detector de Canny.
Los operadores basados en el gradiente son píxeles con un alto gradiente. Un rápido índice de cambio de intensidad dada por el ángulo del vector gradiente puede observarse en los píxeles de los bordes.
Un píxel de borde se describe por: Intensidad del borde (magnitud del gradiente) y dirección del borde (ánglo del gradiente).
Operador de Roberts. Utiliza las direcciones diagonales para calcular el vector gradiente mediante máscaras.
Operador de Sobel. Calcula la magnitud del gradiente mediante: M√ sx² + sy²
Operador de Prewitt. Expande la definición del gradiente en una máscara de 3x3 para se más inmune al ruido, utiliza la misma ecuación que Sobel, pero con constante c = 1.
Operador Isotrópico. Intenta llegar a un equilibrio entre operador Prewitt y Sobel. Prewitt proporciona detección para bordes verticales y horizontales, y Sobel detección de bordes diagonales.
Visión por computadora
La visión es un medio para un fin – conocer el mundo observándolo – la visión artificial tiene como medio para adquirir el conocimiento un instrumento de cómputo. El tema de visión artificial es extenso: los asuntos tales como la restauración de imágenes, mejoramiento de imagen, inspección visual automatizada, visión robótica, escenas tridimensionales, y percepción y cognición visual todas forman parte del término “Visión artificial”.
Los primeros experimentos de cómputo para desarrollar sistemas artificiales para la visión de máquinas comenzaron con amplia variedad en grados de complejidad, han sido usados en muchas áreas diversas tales como ofimática, medicina, detección remota por satélite, y en el mundo industrializado y militar. Los usos han sido muchos y variados.
A la visión artificial le compete estudiar la estructura física tridimensional del mundo para el análisis automático de imágenes.
Las imágenes son imágenes digitales: son representaciones discretas (es decir, ellas tienen valores distintos en los puntos regularmente muestreados) y son representaciones cuantificadas (es decir, cada valor es un valor del número entero).
La visión artificial incluye muchas técnicas que son útiles para si mismas. Más significativamente, sin embargo, la visión artificial se refiere al procesamiento de imágenes, estas imágenes son solamente la materia prima de una ciencia mucho más amplia, la misma que se esfuerza en última instancia para emular las capacidades perceptivas del hombre, y para verter una luz sobre la manera por la cual él logra su interacción adaptativa y robusta con su ambiente.
Animación por computadora
La animación es la simulación de un movimiento, creada por una serie de imágenes o cuadros.
La animación por computadora se puede definir como un formato de presentación
de información digital en movimiento a través de una secuencia de imágenes o cuadros creadas o generadas por la computadora.
Características de la Animación 3D
La animación por computadora permite crear escenar “realmente” tridimensionales, en una escena animada por computadora es posible cambiar el ángulo de la cámara y ver otra parte de la escena. Se pueden reutilizar partes de la animación por separado.
Una animación se ve más realista si variamos el peso y el tamaño de los objetos. Para cambiar el peso es necesario cambiar el tiempo que tarda en moverse. Mientras más pesado su masa es mayor y es necesario aplicar mayor fuerza para moverlo.
Es necesario pensar en la forma como se moverán los objetos. Cada movimiento se realiza por una razón. Es necesario conocer las formas en que actúan los cuerpos.
En la animación en tres dimensiones debe considerarse la forma en que se detiene los cuerpos. Al animar a un personaje es conveniente que si se va a detener, alguna parte de su cuerpo se siga moviendo ligeramente, como la cabeza o un brazo.
Hay tres fases que componen una acción: La anticipación de la acción, la acción en sí y la reacción a la acción.
Técnicas de animación
La animación en acetatos (cel animation), la animación basada en cuadros (flipbook animation) y la animación en sprite.
Animación Basada en Cuadros
Para hacer una secuencia, se van filmando las imágenes cuadro por cuadro y luego estos se unen para formar la animación. Es posible formar bibliotecas de movimientos de cada parte del cuerpo de la animación para de esta forma combinarlas y hacer animaciones diferentes.
Animación Basada en Sprites
Se refiere a animaciones de objetos sobre fondos estáticos, es decir, lo que cambia son los personajes.
Key Framming
Se refiere a establecer posiciones en puntos específicos de tiempo en una animación y la parte intermedia la obtiene la computadora por medio de interpolación matemática.
Rotoscopiado
Se obtienen la posición y el ángulo de los puntos clave de imágenes reales y se trata de hacer converger los modelos en computadora con ellos.
Motion Control
Consiste en obtener posiciones clave de manera automática a partir de un actor real por medio de dispositivos que se conectan a su cuerpo.
Wavelets
Significa “pequeñas ondulaciones”. Esta técnica permite que en una sola imagen se compriman una gran cantidad de datos para que al acercarse a ella, se vayan viendo los detalles.
Técnicas de Pixar
El proceso que utiliza Pixar [12] para crear sus animaciones se compone de cuatro etapas principales: Desarrollo (crear el guión de la historia), preproducción (se direccionan los retos técnicos), producción (creación de la película) y post producción (pulir los últimos detalles).
jueves, 17 de noviembre de 2011
Técnicas de sombreado clásicas y avanzadas
Clásicas: Modelo de iluminación local
Son aquellos en los que se considera que la intensidad de luz en un punto de la superficie de un objeto se debe exclusivamente a las Fuentes luminosas.
Renderizado en Tiempo Real
La renderización es el proceso de generar una imagen desde un modelo, y se suele aplicar en la computación gráfica, más comúnmente a la infografía. En infografía este proceso se desarrolla con el fin de imitar un espacio 3D formado por estructuras poligonales, comportamiento de luces, texturas, materiales (agua, madera, metal, plástico, tela, etcétera) y animación, simulando ambientes y estructuras físicas verosímiles. Una de las partes más importantes de los programas dedicados a la infografía son los motores de renderizado, los cuales son capaces de realizar técnicas complejas como radiosidad, raytrace, canal alfa, reflexión, refracción o iluminación global.
Cuando se trabaja en un programa de diseño 3D asistido por ordenador, normalmente no es posible visualizar en tiempo real el acabado final deseado de una escena 3D compleja ya que esto requiere una potencia de cálculo demasiado elevada, por lo que se opta por crear el entorno 3D con una forma de visualización más simple y técnica, y luego generar el lento proceso de renderización para conseguir los resultados finales deseados. El tiempo de render depende en gran medida de los parámetros establecidos en los materiales y luces, así como de la configuración del programa de renderizado.
Realistas: Modelo de iluminación global
Son aquellos en los que se considera que la intensidad de luz en un punto de la superficie de un objeto se debe a las fuentes luminosas y al resto de los elementos existentes en la escena.
Trazado de rayos
Consiste en que –teniendo la posición y atributos físicos de cada uno de los objetos a iluminar, así como la situación, intensidad y tipo de fuentes de luz que iluminan los objetos, junto con la posición del observador y la del plano de proyección de la imagen (la pantalla), y el modo de iluminación o cálculo del color en un punto de la superficie de un objeto- se traza un rayo desde la posición del observador a través de cada uno de los píxeles del plano de proyección (una de las ventajas del raytracing es que los rayos que se procesan son sólo los rayos que parten del observador ), y por cada uno de estos rayos trazados se busca si interseca con alguno de los objetos que se representan; si no se encuentra ninguna intersección, para ese pixel, no se sigue el proceso y se le hace corresponder, por defecto, un color de fondo. Si el rayo se encontrara con un objeto, se analizan los atributos físicos que tiene asignado el objeto y se resuelve según la modelización de la iluminación, calculando su color en el punto del objeto donde interseca el rayo.
Radiosidad
El método de radiosidad, consiste en que las reflexiones de la luz sobre los objetos se tratan como reflexiones difusas ideales de tal manera que la modelización de los efectos ópticos, como la de los espejos, por ejemplo, no se realiza. Este método hace aquello que no realiza el trazado de rayos. Para este método, los materiales de los objetos tienen superficies mate que no producen reflexiones espectaculares, por lo que la parte de energía que les llega, y que no haya sido absorbida por la superficie, se refleja por igual a lo largo de toda esta superficie del objeto.
Cálculos de iluminación por pixel
Antes de que el color final del píxel sea decidido, un cálculo de iluminación debe ser computado para sombrear a los píxeles basados en alguna luz que puede estar presente en la escena.
Sombreado Plano o Constante
Los tres vectores, l, n y v, pueden variar según se va entre puntos sobre una superficie.
• Para un polígono plano, n es constante.
• Si se asume un observador distante, v es constante sobre el polígono.
• Si la fuente de luz es distante, l es constante.
Si los tres vectores son constantes, entonces el cálculo de sombreado se lleva a cabo una sola vez para cada polígono, y se asignará la misma sombra a cada punto en el polígono.
Sombreado plano mostrará diferencias de sombreado entre los polígonos.
Sombreado Gouraud
En el sombreado Gouraud, se define la normal en un vértice como el promedio normalizado de las normales de los polígonos que comparten el vértice.
Desde la perspectiva de OpenGL, el sombreado Gouraud es sencillo. Se necesita solamente asignar correctamente las normales de vértices. Sin embargo, existe un problema, encontrar las normales para promediar. Si el programa es lineal, especificar una lista de vértices (y otras propiedades), no se tiene la información necesaria de cuales polígonos comparten un vértice. Lo que se requiere es una estructura de datos para representar un "mesh". Atravesar esta estructura de datos puede generar los vértices con las normales promediadas. Tal estructura de datos debe contener, de manera mínima, polígonos, vértices, normales, y propiedades de los materiales.
Sombreado Phong
Phong propuso que, en lugar de interpolar intensidades de los vértices, se interpole normales a lo largo del polígono. Para un polígono que comparte lados y vértices con otros polígonos.
Se puede computar normales en los vértices interpolando sobre las normales de los polígonos que comparten el vértice. Luego, se puede usar interpolación bilineal, para interpolar las normales sobre el polígono.
Una vez obtenidas las normales en cada punto, se puede hacer cálculos de sombreado independientes. Normalmente, este proceso se combinará con la rasterización del polígono.
Sombreado Phong producirá imágenes mas suaves que con el sombreado Gouraud, pero a un costo computacional mayor.
Recortado de caras traseras
En una escena, los objetos se tapan a sí mismos y entre sí, quedando siempre partes ocultas al observador.
Las partes ocultas deben ser eliminadas de posteriores operaciones: proceso de visibilidad.
El proceso de visibilidad es complejo, por lo que existen numerosas soluciones.
Técnicas implicadas:
- Cálculo de normales
- Ordenación
- Algoritmos de visibilidad
- Aceleración por coherencia
Técnicas de aceleración
o Eliminación de caras traseras
o Coherencia
o Contenedores
Algoritmo fundamental en el espacio de la imagen: trazado de visuales (ray casting)
Algoritmos más conocidos:
Z- Buffer
Prioridad en lista
Scan- Line
Buffer de Profundidad
El z-buffering, o el buffer de profundidad es la parte de la memoria de nuestra tarjeta gráfica encargada de la visibilidad de nuestros gráficos 3D según las coordenadas de sus pixeles, con lo que se puede gestionar qué elementos de una escena renderizada son visibles y cuales permanecerán ocultos según sus posiciones en el eje Z (distancia a cámara).
En definitiva lo que se hace es comparar las profundidades de ambos gráficos para representar el objeto más cercano al observador. La profundidad elegida se guardará en el z-buffering reemplazando a la anterior.
Transparencias
La implementación de la transparencia en un programa OpenGL no suele ser sencilla. Podemos combinar los colores de los objetos para una escena simple que contenga unas pocas superficies opacas y transparentes utilizando el valor de mezcla alpha para especificar el grado de transparencia y procesando las superficies según su orden de profundidad. Pero las operaciones de mezcla de color OpenGL ignoran los efectos de refracción, y el manejo de superficies transparentes en escenas complejas con una diversidad de condiciones de iluminación o con animaciones puede resultar muy complicado. Así mismo, OpenGL no proporciona ninguna funcionalidad para simular la apariencia superficial de un objeto translúcido (como por ejemplo un cristal esmerilado), que dispersa de manera difusa la luz transmitida a través del material semitransparente. Por tanto, para mostrar superficies translúcidas o los efectos de iluminación resultantes de la refracción, necesitamos describir nuestras propias rutinas. Para simular los efectos de iluminación a través de un objeto translúcido, podemos utilizar una combinación de valores de textura superficial y de propiedades del material. Para los efectos de refracción, podemos desplazar las posiciones de píxel para las superficies que se encuentren detrás de un objeto transparente.
El blending es simplemente una técnica que se puede utilizar para obtener efectos de transparencias.
La transparencia mediante el blending es tan difícil como incómoda, pero si se controlan algunos aspectos de la escena, se puede conseguir el efecto deseado sin demasiada complejidad.
Buffer de Stencil
Stencill Buffer es una memoria intermedia que analiza y actualiza píxeles (con sus operaciones) junto con buffer de profundidad. Añade planos de bits adicionales para cada píxel además de los bits de color y profundidad.
Stencil Buffer se puede pensar que simplemente etiqueta los píxeles en la interpretación o renderización de la escena en la pantalla para controlar las siguientes interpretaciones. Los pasos son siguientes:
1. Dada una escena con una sombra fija. Los píxeles de la escena se podrían considerar con “dentro” de la sombra o “fuera”. Asumimos que podemos etiquetar cada píxel apropiadamente.
2. Cuando los píxeles ya son etiquetados, actualizamos los píxeles etiquetados como “dentro” de la sombra. Y renderizamos la escena con la fuente de luz desactivada.
3. Después actualizamos los píxeles etiquetados como “fuera” de la sombra. Activamos la luz y renderizamos otra vez.
Buffer de acumulación
El buffer de acumulación sirve para capturar el buffer de color en un fotograma y aplicarle acumulaciones del color de otro fotograma/s. Esto básicamente sirve para simular el efecto de estela que deja un objeto cuando se mueve muy rápidamente en el encuadre de la cámara.
Fuentes de Luz
La luz puede dejar una superficie mediante dos procesos fundamentales:
• Emisión propia
• Reflexión
Normalmente se piensa en una fuente de luz como un objeto que emite luz solo mediante fuentes de energía internas, sin embargo, una fuente de luz, como un foco, puede reflejar alguna luz incidente a esta del ambiente.
Se considerarán cuatro tipos básicos de fuentes, que serán suficientes para generar las escenas más sencillas:
1. Luz ambiente
2. Fuentes de punto
3. Spotlights (Luces direccionales)
4. Luces distantes
Fuentes de color
Para la mayoría de las aplicaciones, se puede modelar fuentes de luz en base a tres componentes primarios, RGB, y puede usar cada uno de los tres colores fuentes para obtener el componente de color correspondiente que un observador humano vería.
Se describe una fuente mediante una función de intensidad o luminancia de tres componentes: Cada uno de los componentes es la intensidad de los componentes rojo, verde y azul independientes.
Luz Ambiente
Como el modelo de iluminación es local, las partes que no están iluminadas por una fuente de luz se verían totalmente negras. Para evitar esto, se supone que hay una iluminación uniforme que es el promedio de la luz reflejada por los objetos, a la que llamamos ambiental.
En algunos cuartos, las luces se diseñan y ubican para proveer iluminación uniforme en el cuarto. Tal iluminación se logra mediante fuentes grandes con difusores cuyo propósito es esparcir la luz en todas las direcciones. Se puede crear una simulación precisa de tal iluminación, modelando todas las fuentes distribuidas, y luego integrando la iluminación de estas fuentes en cada punto de una superficie reflectora. Hacer tal modelo y generar la escena sería una tarea formidable para un sistema gráfico, especialmente si se desea ejecución en tiempo real. De manera alternativa, se puede ver el efecto deseado de las fuentes: lograr un nivel de luz uniforme en el cuarto. Esta iluminación uniforme se llama luz ambiente.
Spotlights (Luces direccionales)
Los spotlights se caracterizan por un rango delgado de ángulos por los cuales se emite luz. Se puede construir un spotlight sencillo de una fuente de punto limitando los ángulos de donde la luz de la fuente se puede ver. Se puede usar un cono cuyo ápice está en ps, apuntando en la dirección ls, y cuyo ancho está determinado por el ángulo θ.
Spotlights más realistas se caracterizan por una distribución de luz dentro del cono, normalmente con la mayoría de la luz concentrada en el centro del cono.
Fuentes de Luz Distantes
La mayoría de los cálculos de sombreado requieren la dirección de un punto sobre la superficie a la fuente de luz. Según se mueve a lo largo de la superficie, se debe recomputar este vector para calcular la intensidad en cada punto. Sin embargo, si la fuente de luz está lejos de la superficie, el vector no cambiará mucho según se mueve de un punto a otro, al igual que la luz del sol da en todos los objetos cercanos entre si con el mismo ángulo.
En la práctica, los cálculos para fuentes de luz distantes son similares a los cálculos para proyecciones paralelas; se reemplaza la ubicación de la fuente de luz por una dirección de la fuente de luz. Por lo tanto, en coordenadas homogéneas, una fuente de luz de punto en p0 se representará internamente como una matriz columna de cuatro dimensiones
donde la fuente de luz distante se representa mediante
que es la representación de un vector.
Intensidad Completa
La intensidad completa exclusivamente para efectos de iluminación es la siguiente:
Referencias
domingo, 2 de octubre de 2011
Chaos Pro
Chaos Pro es un programa para desarrollar fractales en tiempo real. En su version 3.3 encontramos la siguiente interfaz.
Para desarrollar nuestro primer fractal debemos dirigirnos a la pestaña Fractal y seleccionar New Defaulttype y de ahi se desplegara una lista en cual seleccionaremos la interfaz requerida. La forma rápida es dirigirnos hacia la barra de herramientas de la parte superior y seleccionar de la lista desplegable de la derecha la interfaz.
En la parte de la derecha aparecen las ventanas de parámetros, propiedades de forma, trabajos de render, comentarios, ciclo de colores, animaciones, actualizaciones y mensajes las cuales ayudan a cambiar las propiedades de nuestros fractal.
Comenzaremos con la ventana de parámetros, en la cual podemos colocar la formula que sigue el fractal que desarrollaremos o se puede seleccionar de una lista desplegable el fractal deseado. En esta misma ventana determinamos el numero de iteraciones que desarrollaran el fractal, así como el área del fractal que se visualiza en la pantalla.
En la ventana de comentarios podemos encontrar las características del programa que desarrolla el fractal, por ejemplo, el día que se creo, la resolución de pantalla, entre otros.
La ventana de ciclo de colores permite que el fractal cambie de colores periódicamente, permitiendo seleccionar la velocidad de cambio y los colores (Estos deben cambiarse en la barra de herramientas).
La ventana de animaciones nos permite crear una foto o un vídeo utilizando el fractal creado aplicándole una serie de animaciones.
Las ventanas de actualizaciones y mensajes son precisamente para como su titulo lo dice, instalar las actualizaciones que vayan apareciendo y dejar mensajes en el fractal respectivamente.
Por ultimo la barra de herramientas con la cual podemos modificar el fractal creado.
Con ella podemos guardar, imprimir, aplicar los cambios de propiedades del fractal en el botón verde y borrar el fractal en el botón rojo.
Tiene las flechas para regresar un cambio antes o uno después.
La paleta de colores, con la cual podemos cambiar los colores del fractal y los colores que afectan en el ciclo de colores.
Y por ultimo las listas desplegables que nos muestran los fractales que se pueden seleccionar.
sábado, 3 de septiembre de 2011
Vector, escalar y punto
Graficos Vectoriales
Los gráficos vectoriales, también conocidos como gráficos orientados a objetos, son el segundo gran grupo de imágenes digitales. Son más simples que los gráficos de mapas de bits, ya que en ellos las imágenes se almacenan y representan por medio de trazos geométricos controlados por cálculos y fórmulas matemáticas, tomando algunos puntos de la imagen como referencia para construir el resto.
Por lo tanto, las imágenes en los gráficos vectoriales no se construyen píxel a píxel, sino que se forman a partir de vectores, objetos formados por una serie de puntos y líneas rectas o curvas definidas matemáticamente.
Por ejemplo, una línea se define en un gráfico de mapa de bits mediante las propiedades de cada uno de los píxeles que la forman, mientras que en un gráfico vectorial se hace por la posición de sus puntos inicial y final y por una función que describe el camino entre ellos. Análogamente, un círculo se define vectorialmente por la posición de su punto central (coordenadas x,y) y por su radio (r).
Cada vector en un gráfico vectorial tiene una línea de contorno, con un color y un grosor determinados, y está relleno de un color a elegir. Las características de contorno (o filete) y relleno se pueden cambiar en cualquier momento.
Las imágenes vectoriales se almacenan como una lista que describe cada uno de sus vectores componentes, su posición y sus propiedades.
En cuanto a la resolución, los gráficos vectoriales son independientes de la resolución, ya que no dependen de una retícula de píxeles dada. Por lo tanto, tienen la máxima resolución que permite el formato en que se almacena.
Curvas de Bézier
Los principales elementos constituyentes de un vector son las denominadas curvas de Bézier, desarrolladas por Pierre Bézier por encargo de la empresa Renault, que buscaba una familia de curvas representables matemáticamente (son curvas de tercer grado) que permitieran representar las curvaturas suaves que deseaban dar a sus automóviles.
Una curva Bézier queda totalmente definida por cuatro puntos característicos, los puntos inicial y final de la curva (nodos o puntos de anclaje) y dos puntos de control (puntos de control, manejadores o manecillas), invisibles en el gráfico final, que definen su forma. Para modificar su forma, basta cambiar de posición uno de sus nodos o uno de sus puntos de control.
Son curvas de manejo poco complejo y muy elegantes, con un desarrollo muy suave, capaces de adaptarse a casi cualquier forma imaginable, por lo que son muy usadas para diseñar logotipos e iconos y para copiar cualquier figura.
También son enormemente versátiles, pudiendo adoptar desde curvaturas muy suaves (casi líneas rectas) a curvaturas muy fuerte (curvas complejas), pasando por todos los valores intermedios. Pueden, incluso, cambiar de cóncavas a convexas alrededor de un punto.
Ventajas y limitaciones de los gráficos vectoriales
Las principales ventajas que ofrecen los gráficos vectoriales, derivadas de su naturaleza matemática, son:
· Almacenan las imágenes en archivos muy compactos, ya que sólo se requiere la información (fórmulas matemáticas) necesaria para generar cada uno de los vectores. dado que no se ha de almacenar información para definir cada punto de la pantalla, sino una serie de fórmulas matemáticas.
· Permiten modificar el tamaño de las imágenes y de sus objetos componentes sin que se produzca pérdida de información, pues se actualizan de forma matemática todas las nuevas relaciones y posiciones de los elementos geométricos que las componen. Con ello, los cambios de tamaño de las imágenes vectoriales no afectan a la calidad de las mismas, apareciendo siempre con la misma nitidez.
· Son muy útiles a la hora de imprimir imágenes.
· Cada objeto viene definido por sus propias fórmulas matemáticas y se maneja independientemente del resto, pudiendo escalarse, distorsionarse y cambiarse de forma o de posición sin afectar para nada los otros elementos del dibujo.
· Es posible un control independiente del color, tanto del contorno como del relleno, admitiendo la aplicación de texturas, degradados, transparencias, etc.
· Se puede controlar con gran precisión la forma, orientación y ordenación de los elementos.
· Cualquier efecto que se aplique a los objetos puede rectificarse en cualquier momento, ya que el dibujo es siempre editable. Esto no ocurre en las imágenes de mapas de bits, en las que una vez pintado un elemento ya no es posible modificarlo.
· Es fácil reutilizar un dibujo o una parte del mismo en otros proyectos. Basta copiarlo y pegarlo en un nuevo fichero o en uno ya existente.
· Los objetos del gráfico pueden fusionarse fácilmente entre sí, creando una serie de formas intermedias. Por ejemplo, se puede pasar de un cuadrado a un triángulo en cinco formas interpoladas.
· Se puede relacionar de diferentes formas con el resto de objetos del gráfico (agrupar, separar, recortar, intersectar, etc.).
· Se puede ordenar las formas de cualquier manera si está en superposición unas con otras.
· Permiten un manejo de textos muy avanzado, ya que admiten fuentes TrueType, que también son objetos vectoriales. Además, las letras se pueden convertir en contornos editables, descomponiendo un texto en los objetos vectoriales que lo constituyen. Una vez convertidas las letras en objetos, ya no hará falta tener instalada la fuente para seguir editando los contornos, porque ya no serán letras, sino objetos dentro del gráfico vectorial, pudiendo ser modificadas como tales.
El principal inconveniente de las imágenes vectoriales es que tiene un aspecto más frío que los gráficos de mapa de bits, con su contorno demasiado perfecto, que los hace a veces poco naturales, aunque siempre es posible crear premeditadamente contornos un poco irregulares, para que se parezca algo más al dibujo natural.
Otros inconvenientes de este tipo de gráficos son su falta de eficacia para representar imágenes de tipo fotográfico, la dificultad que presenta para tratar algunas efectos (sombras, luces, etc...) y que cuando son muy grandes o muy complejas pueden volverse extremadamente difíciles de manejar por los programas gráficos y por los medios de impresión.
Escalares
Existen cantidades que se pueden medir, pesar o contar, estas pueden ser expresadas por números o módulos llamados Escalares.
Vectores
Existen otro tipo de cantidades que además de poseer módulo también tiene dirección, sentido y punto de aplicación. Estas son llamados Vectores.
En general los vectores vienen definidos por cantidades llamadas coordenadas.
En un espacio unidimensional un vector tiene una coordenada.
En un espacio bidimensional un vector tiene dos coordenadas, que en unos ejes de coordenadas rectangulares se representa por un vector con dos componentes.
En un espacio tridimensional un vector tiene tres coordenadas, que en un eje de coordenadas trirrectángulo se representa por un vector con tres componentes según los tres ejes coordenados.
En un espacio de dimensión n, los vectores tendrán n coordenadas.
Puntos
Los puntos no tienen dimensiones.
Por tanto carecen de longitud, anchura y altura.
Un punto indica una posición en el plano o en el espacio.
Exciten infinitos elementos llamados puntos.
Una recta comprende infinitos puntos.
Entre dos puntos de una recta hay infinitos puntos.
Por un punto del plano pasan infinitas rectas.
Dos puntos determinan una recta.
Tres puntos no situados en una recta determinan un plano.
Referencias
Suscribirse a:
Entradas (Atom)