viernes, 14 de noviembre de 2008

Dolby Volume

Dolby volumen: una nueva solucion de nivelación de volumen para sistemas de audio para el hogar.








Seguro que más de una vez has gritado con una furia increíble a los responsables de sonido de las cadenas de televisión, que o bien tienen su canal a un volumen mayor o menor que el de otros, o cuando empiezan los espacios publicitarios, uno se vuelve loco por lo alto del sonido.



Dolby piensa en nosotros y nuestros oídos y está desarrollando el sistema Dolby Volume que evitaría precisamente eso.



El sistema de encargaría de ir evaluando diferentes datos de los volúmenes para ajustarlos al momento.Se prevé su instalación en los televisores del futuro para alegría de los que todavía no hemos perdido mucha audición.





Aunque ya existe en el mercado la tecnología para normalizar el volumen de los televisores, tal como habíamos visto con el TV Volume Regulator, o como nos había contado un lector, que en muchos televisores modernos ya viene integrado, Dolby presenta la tecnología Volume, que hace precisamente eso.
Lo que no se es si presenta alguna novedad interesante, aunque por lo que cuentan en la nota de prensa no lo parece. Lo único que se me ocurre es que esta vez funcione un poco mejor y no se aprecie la pérdida en la calidad del sonido.
Se supone que durante este principio de año algunas marcas empezarán a implementarlo en sus televisores. Lo esty deseando, porque los cambios de volumen me tienen harto a mi y a mis vecinos.

TV Volume Regulator, televisión a un volumen normal




Seguro que muchos de ustedes estan hartos de la típica práctica de las cadenas de televisión de subir el volumen exageradamente cuando llega el momento de los anuncios. Con el TV Volume Regulator podremos ver la televisión más tranquilos sin necesidad de estar cada momento subiendo y bajando el volumen del receptor.


También sirve para esos momentos en que estás viendo una película a las tantas de la madrugada y hay fuertes explosiones que hacen parecer que se va a derrumbar todo tu edificio y hacen subir a los vecinos a tener “unas palabras” contigo. Además, la tranquilidad de no pegarte esos sustos que te dan de vez en cuando con el volumen bien vale los 49.95 dólares que cuesta el aparato.

jueves, 13 de noviembre de 2008

Mineria de Datos

Leamos lo que escribió en octubre de 1995 Edmun DeJesus, editor de la famosa revista BYTE Magazín:

"Gracias a la minería de datos, las computadoras se encargan de seleccionar vastos almacenes de datos. Con una incansable e incesante búsqueda, será posible encontrar la diminuta pepita de oro en una montaña de datos de desperdicio".

En data mining las búsquedas se hacen sobre datos dispersos, con poca o ninguna intervención del usuario. No se requiere formular un requerimiento estricto para que la herramienta entregue algunas relaciones ocultas y patrones interesantes, conseguidos a través de clasificación y predicción.

Algunas aplicaciones de estas técnicas están directamente relacionadas con el mercadeo de producto, pudiendo predecir el comportamiento de los clientes ante una oferta o un producto en particular, de acuerdo a su ubicación geográfica. También para conocer las preferencias de los consumidores y tomar medidas que los acerquen a los productos que se distribuyen.


Buscando Patrones

El proceso de buscar patrones significativos en los datos, que expliquen eventos pasados, con el objetivo de usar dichos patrones para ayudar a predecir eventos futuros.

Puede ser:
Descriptiva. Información. Análisis dimensional.


Predictiva. Generar modelos. Esto realmente es minería de datos. Partir de un cúmulo de datos y descubrir relaciones ocultas y complejas a partir de diversas operaciones.


Ejemplos de esto son:
El análisis de transacciones de tarjetas de crédito para encontrar patrones de fraudes.
Búsqueda de tendencias de los compradores de acuerdo a sexo, edad, ubicación, etc.


Tareas de minería de datos

Clustering. Agrupamiento-segmentación. Particionar un conjunto heterogéneo en subconjuntos mas homogéneos. Internamente el sistema define estas características.
Clasificación. Asignar un registro a una o varias posibles clases predefinidas.

Agrupamiento por afinidad. Análisis de correlaciones. Identifica eventos o transacciones que ocurran simultáneamente. Ejemplo de compra los días jueves en la noche de pañales y cervezas en mercado.

Estimación /predicción. Asignar un valor a una variable dependiente que toma valores numéricos continuos. Esto lo diferencia de la clasificación.

Un ejemplo tradicional de minería de datos es el relacionado con una búsqueda en una bodega de datos, de un negocio de cadena, de hechos comunes y relevantes: Luego del proceso se dio como resultado la siguiente:
Esto sirvió para que empresa tomara medidas relacionada con la ubicación de ciertos productos en sitios comunes.

Si edad <35;
y sexo = masculino;
y dia = jueves entonces compras incluyen pañales; y cerveza


Técnicas de Minería de Datos.

Redes Neuronales.
Clasificación
Estimación Clustering

Arboles de decisión.

Técnicas de Algoritmos genéticos
Optimización de funciones, se usan con redes neuronales.

Análisis de Correlaciones.

K-Vecinos.


Redes Neuronales artificiales (RNA). Como su nombre lo indica simula el sistema nervioso real en forma abstracta. Estas deben ser entrenadas para que den solución a los problemas. Esta enseñanza se realiza repitiendo sistemáticamente entradas clásicas, con sus respectivas salidas o respuestas. Son usadas para reconocimiento de patrones, clasificaciones de voz e imagen, procesamiento de lenguaje natural, predicción y optimización.


Reglas de Producción. Generalmente son transformaciones de árboles de decisión que han crecido mucho, llevándolos al plano proposicional, lo cual facilita el entendimiento.
Todas estas técnicas pueden ser mezcladas para obtener los resultados esperados.

K-vecinos. Usa razonamiento basado en memoria (MBR) para las predicciones. Identifica los vecinos más cercanos (valores similares para igual atributo) y observa como se comporta la variable de salida. Parte de un conjunto de datos modelo, que representa el mecanismo de clasificación, se determina la cantidad de vecinos que participan en la clasificación (K). Es permitido ponderar atributos para expresar su importancia en la técnica.


Arboles de decisión (AD). Representan reglas donde atributos independientes determinan los valores finales. En estos árboles cada nodo representa una propiedad que puede tomar diversos valores, cada uno de los cuales genera una rama. Los nodos hojas representan las clasificaciones finales. Usadas donde se deben tomar decisiones a partir de varias alternativas combinadas y con pesos diferentes. Son útiles en problemas de alta dimensionalidad y pequeño numero de valores para cada atributo. Se usan, por enumerar unos, en dominios médicos y en simulaciones de juegos de ajedrez.

Inconvenientes

En estas tareas de minería de datos, se encuentran inconvenientes inherentes a las bodegas de datos:

Grandes volumen de información y altamente dimensionales, lo que dificulta el hallazgo de patrones.


Valores inconsistentes o no existentes en algunos atributos importantes. Estas situaciones deberían haberse corregido en la fase de población y actualización, pero en caso de presentarse se debe tener una política para su manejo.


La representación de los resultados no siempre es comprensible para todos los usuarios.


Valor estadístico de los patrones hallados.


Productos para minería de datos

Hoy existen una buena cantidad de productos, de diversos fabricantes, para minería de datos, varios de ellos impulsados por universidades reconocidas [Esc96]. Por enumerar algunos, Intelligent Miner (IBM), KDD Project (GTE laboratories), Datamind (Datamind Inc), Saxon (PMSI). Algunos se pueden conseguir en sitios Internet, para las diferentes plataformas: Data Surveyor (www.ddi.nl), IDIS (http://datamine.inter.net/datamine), VisDB (http://www.informatik.uni-halle.de/dbs/Research/VisDB).

Este último producto tiene una versión para sistema operativo Linux. El VisDB se ha desarrollado para apoyar la exploración de bancos de datos grandes. Los instrumentos de VisDB implementan severas técnicas visuales, permitiendo trabajar con bodegas de datos de aproximadamente un millón de valores de datos. Las técnicas apoyadas por el sistema son: Técnicas orientadas a pixel (espirales, Ejes y Técnicas de Agrupación), Coordenadas Paralelas y figuras de madera.

Estos productos, en forma integrada o separada se basan en: Redes neuronales, algoritmos genéticos, árboles de decisión, algoritmos estadísticos, funciones de visualización gráfica, técnica de K-vecinos, reglas de producción.

Algunos pasos deben seguirse para lograr provechosos resultados

Qué se espera?.
Qué se quiere descubrir?
Conjuntos de datos que se analizaran.
Pre-procesamiento. Buscan desechar los valores con desviaciones muy altas, generados por ausencia o datos incorrectos.
Limpieza. A partir de un previo conocimiento obtenido en los pasos anteriores se determinan las variables y registros que realmente representaran importancia.
Elegir la función de la minería y sus algoritmos.

Tareas en la Implementación de Data Warehouse.

Enfrentar un proyecto de data warehouse implica apoyarse en diferentes técnicas:

Técnicas Administrativas. La información del data warehouse es propia para cada empresa, esta estrechamente ligada con el negocio que se esta sistematizando, por lo tanto el diseño e implementación deben apoyar la solución a las necesidades planteadas. Se debe partir de los requerimientos funcionales de información, que generen una ventaja competitiva para la empresa y faciliten la toma de decisiones por parte de la administración. Como plantean Gill y Rao "Con frecuencia, el reto reside en transformar los enunciados estratégicos generales de la empresa en indagaciones empresariales precisas y después convertirlos en solicitudes y reportes del data warehouse".

Técnicas de almacenamiento y extracción de datos. Recordemos que varios son los procesos asociados con esta tecnología: Población inicial y actualizaciones, almacenamiento y análisis de datos. Como se explicó en el artículo anterior, en ocasiones los datos que poblarán la bodega de datos provienen de diferentes orígenes. Se requiere definir una estructura y esquema eficientes. Además, consolidar esos datos implica conocer y manejar diferentes sistemas, diferentes motores de bases de datos y eventualmente varios lenguajes de programación, que permitan la extracción desde las fuentes. Las extracciones iniciales implicaran generalmente una conversión de tipo de datos y el manejo de datos ausentes o inconsistentes, que garantice la integridad.

Las actualizaciones implican la extracción de datos desde sistemas en operación, que se harán periódica y cíclicamente. Se requiere, de acuerdo al conocimiento de la situación en particular, definir si se hará semanal, mensualmente o en otro período establecido. Actualizaciones muy constantes normalmente no benefician el análisis de datos, puesto que rara vez cambian las tendencias y/o comparaciones. Se recomienda, en caso de extracciones voluminosas, hacerlo hacia un archivo, esto facilita el reinicio desde distintos puntos, repetir el cargue y preprocesar antes de enviar a la red.
Los cargues deben ser masivos, aprovechando los utilitarios de las bases de datos o las rutinas desarrolladas para esto y no una simple instrucción insert, que generalmente es ineficiente. Es usual y conveniente eliminar índices en este proceso y posteriormente volverlos a crear. En el caso de los refrescos es preferible manejar la detección y propagación de cambios. Eventualmente usar triggers (disparadores. Son acciones especiales definidas por el usuario que son automáticamente ejecutadas por el servidor de bases de datos a partir de eventos sucedidos: insert, update, delete) o aplicaciones propias. También es permitido la comparación de versiones, que algunos sistemas operativos apoyan a través de breves comandos.

En el almacenamiento se debe usar estrategias para lograr eficiencia. En las bodegas de datos es posible manejar diversos niveles de granularidad. A menor granularidad, mayor cantidad de detalle. Para aumentar la granularidad, los datos operacionales deben resumirse y acumularse. Entre mayor sea la granularidad mas procesamiento se tendrá para convertir y resumir los datos desde las fuentes pero, al mismo tiempo, menor será el volumen de almacenamiento y mayor la facilidad de las consultas. Como se nota algunos datos se pueden almacenar como agregados, eso implica un especial cuidado al momento de los refrescos, para que estos datos sumarios también sean actualizados.


Otro elemento importante son las dimensiones de categorización. Un especial interés al momento del análisis es el tiempo, que permite determinar tendencias e información por períodos. También estas son dimensiones que se usan: grupos de clientes, líneas de productos, ubicación geográfica, grupo industrial, área en la organización, estrato social y las específicas del negocio a modelar.
No obstante lo dicho hasta ahora, existen varios enfoques de la arquitectura del data warehouse y en algún caso podría optarse por no generar copias de los datos de las aplicaciones en producción sino utilizar los datos operacionales usando aplicaciones que los consulten directamente.

Técnicas de administración del programa y análisis de datos. Como se dijo anteriormente, no es suficiente con almacenar un volumen alto de datos. Data warehousing implica la gestión de los mismos para convertirse en vital herramienta de soporte a las decisiones, derivar conclusiones a partir de la historia. Esto incluye el descubrimiento de patrones y tendencias, que puedan ser extrapoladas e intentar predecir comportamientos futuros. Estas técnicas se basan en las matemáticas, estadísticas, en la psicología, algoritmos genéticos, redes neuronales e incluso en la experiencia.

Partiendo de datos almacenados es posible obtener consultas sencillas, descriptivas, de datos independientes. También se pueden obtener reportes que manejen varias dimensiones y permitan crecer o bajar en la granularidad, dando una visión de los diferentes valores combinados cuando se requiera. Pero, como se planteó en el párrafo anterior podemos ser más exigentes y a partir de software especializado, optar por la predicción.


Selección de Arquitectura de Data Warehouse

Otro elemento que reviste importancia al momento de implementar una bodega de datos, es la selección de la arquitectura. La arquitectura enfoca el proyecto como componentes (Fuente de datos, bodega de datos, datamart y el acceso y uso).

El diagrama siguiente explica como se organizan estos elementos. Este es un caso particular propuesto por la firma Oracle.



Otros proveedores ofrecen diferentes modelos.

Inteligencia de Negocios

Inteligencia de Negocios

La Inteligencia de Negocios es una estrategia que permite a las organizaciones recolectar y analizar datos comunmente provenientes de fuentes internas, para mejorar la toma de decisiones y la posición competitiva de la empresa.
Los sistemas de información han sido históricamente utilizados para capturar y almacenar datos que se originan en las transacciones cotidianas del negocio. La mayoría de los datos provienen de los sistemas ERP, CRM, sistemas financieros y otras islas de información.


CRM
El CRM Como Estrategia de Negocio
De todos es conocida la importancia de mantener una estrecha relación con el cliente para conocer sus gustos, hábitos y necesidades, de manera que favorezca, en la medida de lo posible, la ya de por sí compleja labor comercial. En este sentido, la incorporación de estrategias basadas en soluciones CRM facilitan ese entendimiento y proporcionan resultados significativos a las empresas


Significado del CRM

La Gestión de Relación con Clientes (CRM) puede ser un término confuso. Así pues, Bindi Bhullar, analista senior de Gartner Group, explica en términos sencillos lo que un CRM tiene que ofrecer y lo que hay que buscar cuando se empieza.
No hay que ser un genio del marketing para saber que las buenas relaciones con el cliente son un objetivo deseable. Todos nosotros hemos jugado el papel de cliente, y sabemos lo importante que es que nuestro negocio sea valorado. Cuidar a los clientes no es una nueva idea, pero en la última década las compañías han prestado más y más atención a hacer que los clientes se sientan bien.La experiencia del cliente es de manera creciente parte del producto. Sin embargo en los dos últimos años, la idea ha crecido, generando una industria de un billón de dólares. Señoras y señores, la Gestión de Relación con Clientes (CRM) verdaderamente ha llegado. CRM se está convirtiendo en un tema tan de moda que, como JFK y la BBC, podemos reconocerlo por sus iniciales. Aún así la gente tiene diferentes niveles de conocimiento sobre CRM y varias ideas sobre lo que es. Así que vamos a dar la oportunidad de conocerlo un poco mejor y ver qué podemos aprender de aquellos que ya han intimado.
¿Qué es CRM?

La mayoría de los expertos no han concluído en una única definición. Pero si miramos hacia algún líder de marca de un mercado de masas o una pequeña empresa con pocos clientes, encontraremos la misma idea detrás de la estrategia CRM: conseguir más ingresos y beneficios, centrando todos sus esfuerzos en el cliente. Bindi Bhullar, analista senior de Gartner Group, afirma: “Es una estrategia de negocio que sitúa al cliente como el corazón de su compañía. Imagina cómo sería tu empresa si tu cliente pudiera rediseñarla para adaptarla a sus necesidades. Esta es la compañía que necesitas ser.”
Eso puede sonar extraño, pero ¿por qué no? Después de todo, la rentabilidad y mantener a los clientes satisfechos son las dos caras de la misma moneda. Es el valor del cliente, junto con un buen servicio, lo que le hace feliz y fiel. Y cuanto más feliz y leal sea, mayor tiempo le conservaremos como cliente.
“Todos hemos oído que es siete u ocho veces más costoso conseguir un nuevo cliente que conservar los actuales. Por tanto, en el actual clima económico CRM está retumbando fuertemente entre los CEOs.” CRM trata simplemente de retener clientes. Es sólo un medio para un fin. El principal objetivo es incrementar la rentabilidad del cliente. Esta es la razón por la que las compañías están fomentando el conocimiento sobre sus clientes, que les permitirá identificar oportunidades de ventas cruzadas y ventas complementarias.




¿Para quién es el CRM?

Muchas industrias han demostrado su apreciación de las buenas relaciones con los clientes, dice Bhullar. Telecomunicaciones, seguros, banca, corretaje y otros servicios financieros llevan mucho tiempo comprometidos con el CRM y han podido comprobar un retorno continuo de la inversión. “Pero”, dice, “ hay todavía enormes oportunidades en el negocio business-to-business, especialmente para fabricantes por proceso y por fabricación discreta que realmente nunca han sido expertos en las relaciones con el cliente.” Incluso compañías con pocos clientes pueden beneficiarse al replantear sus procesos a favor del cliente. “Deberían fortalecer lo que han hecho ya. Siempre hay espacio para la mejora. Las cosas pueden cambiar. Sólo hay que mirar la actual hostilidad entre Ford y Firestone, su proveedor de neumáticos desde 1906. Una buena estrategia CRM les habría ayudado a identificar sus problemas antes de que se les fuese de las manos.”
Pero la mayoría de las compañías, si se les pregunta, probablemente dirían que ellos ya tratan al cliente como el número uno. Según Bhullar, la realidad es bastante diferente. “Ellos siempre se han organizado internamente alrededor del producto. Ahora la ventaja competitiva la tendrán las empresas que pongan al cliente en primer lugar. Y esto no significa simplemente comprar una aplicación CRM.”





Planificación de Recursos Empresariales

Los sistemas de planificación de recursos empresariales (ERP) son sistemas de informacion gerenciales que integran y manejan muchos de los negocios asociados con las operaciones de producción y de los aspectos de distribución de una compañía comprometida en la produccion de bienes o servicios.
La Planificación de Recursos Empresariales es un término derivado de la Planificación de Recursos de Manufactura (MRPII) y seguido de la Planificación de Requerimientos de Material (MRP). Los sistemas ERP típicamente manejan la producción, logística, distribución, inventario, envíos, facturas y una contabilidad para la compañía de la Planificación de Recursos Empresariales o el software ERP puede intervenir en el control de muchas actividades de negocios como ventas, entregas, pagos, producción, administración de inventarios, calidad de administración y la administración de recursos humanos.


Los sistemas ERP ocasionalmente son llamados back office (trastienda) ya que indican que el cliente y el público general no están directamente involucrados. Este sistema es, en contraste con el sistema de apertura de datos (front office), que crea una relación administrativa del consumidor o servicio al consumidor (CRM), un sistema que trata directamente con los clientes, o con los sistemas de negocios electrónicos tales como comercio electrónico, gobierno electrónico, telecomunicaciones electrónicas y finanzas electrónicas; así mismo, es un sistema que trata directamente con los proveedores, no estableciendo únicamente una relación administrativa con ellos.


Los ERP están funcionando ampliamente en todo tipo de empresas modernas. Todos los departamentos funcionales que están involucrados en la operación o producción están integrados en un solo sistema. Además de la manufactura o producción, almacenamiento, logística e información tecnológica, incluyen además la contabilidad, y suelen incluir un recursos humanos, y herramientas de mercadotecnia y administración estratégica.








Almacenamiento Holografico








¿Qué es la holografía?

La holografía, al igual que la fotografía es una técnica que produce una imagen en una placa fotosensible, pero el método utilizado para hacer esto es totalmente diferente. En una fotografía lo que se obtiene es una imagen bidimensional del objeto. Esta imagen queda grabada en un negativo. Esta imagen corresponde a un único punto de vista del objeto que se fotografío. La profundidad y la tercera dimensión del objeto que se fotografío se pierde cuando se graba en la película fotosensible. La holografía produce una imagen llamada holograma. En un holograma queda registrada toda la información visual en forma tridimensional del objeto del cual se quiere sacar el holograma.



En la holografía no se graba la imagen del objeto de la misma forma que en una cámara fotográfica. Lo que se registra en la placa fotosensible, en la que se quiere grabar el holograma, es la interferencia generada por el haz de referencia y la luz reflejada por el objeto que es producida por el haz del objeto. En la figura 1 podemos ver el montaje para la grabación de un holograma, en donde el láser inicial se divide en dos. Un haz de referencia y otro haz de objeto. El haz de objeto se refleja sobre el objeto del cual queremos sacar el holograma y esta luz reflejada genera una interferencia al encontrarse con la luz del haz de referencia.
Después de que se ha grabado el holograma en la placa fotosensible, esta placa tiene un proceso de revelado que es similar al revelado fotográfico. Una vez se tiene la placa revelada del holograma para poder verlo de nuevo, enfocamos el haz de referencia sobre la placa, haciendo que aparezca de nuevo una imagen virtual en tres dimensiones del objeto del cual sacamos el holograma.

Dispositivos de almacenamiento Holográfico


La gran necesidad de las organizaciones y de la mayoría de la gente por el almacenar datos ha hecho que se este investigando intensamente en diversos campos, sobre como almacenar y recuperar gran cantidad de información de una forma rápida, económica y confiable.
Uno de estos campos ha sido el de la aplicación de técnicas de holografía para la creación de dispositivos de almacenamiento de información. Una de las principales ventajas del almacenamiento holográfico es el gran volumen de información que se puede almacenar y la gran velocidad en la de recuperación de datos que se puede obtener.

La figura 3 muestra en forma simplificada como guardar la información en un cristal que sea fotosensible como lo es el niobato de litio o un polímero fotosensible.
El haz de láser inicial se divide en dos, el haz de referencia y el haz de señal. El haz de señal pasa por un modulador espacial de luz que hace que este haz llegue al cristal fotosensible como una matriz de cuadrados opacos y transparentes que se denomina página de información. Este haz de señal se interfiere con el haz de referencia en el centro del cristal fotosensible y esta interferencia genera el holograma de la página y modifica las propiedades ópticas del cristal, dejando grabada una página de información.
El haz de láser inicial se divide en dos, el haz de referencia y el haz de señal. El haz de señal pasa por un modulador espacial de luz que hace que este haz llegue al cristal fotosensible como una matriz de cuadrados opacos y transparentes que se denomina página de información. Este haz de señal se interfiere con el haz de referencia en el centro del cristal fotosensible y esta interferencia genera el holograma de la página y modifica las propiedades ópticas del cristal, dejando grabada una página de información.
Después de que se ha registrado la página en el cristal, para volver a recuperar la información grabada, se vuelve a iluminar el cristal con el haz de referencia utilizando el mismo ángulo que se utilizó para crear el holograma. El haz de referencia se difracta de forma que se reproduce la imagen de la página y la información que contenía originalmente. Luego se proyecta esta imagen (matriz de cuadros opacos y transparentes) a una matriz de detectores electroópticos, similares a las matrices detectoras construidas para las cámaras de televisión que detectan la forma en que están organizados los cuadrados brillantes y oscuros. De esta forma se esta leyendo toda una página de información en un sólo instante.
Para grabar la siguiente página de información se aumenta el ángulo del haz de referencia hasta que desaparece la reconstrucción de la página anterior. Cuando sucede esto se repite el proceso anterior para grabar la siguiente página de información. Si se quiere recuperar alguna página de información específica simplemente hay que modificar el ángulo del haz de referencia hasta que coincida con el ángulo del haz con que se construyo la página. El proceso inverso de localización de una página también se puede dar, proyectando la matriz de la página en el cristal, y entonces aparecerá el haz referencia con el que se creó esa página. Si la imagen proyectada al cristal no está almacenada en el cristal, aparecerán diversos haces de referencia, y esto significaría la codificación de la imagen que se proyecto en función de la información holografía que está almacenada en el cristal.
El número de hologramas que se pueden registrar en un mismo cristal tiene un número máximo, para que los datos almacenados sean confiables al momento de leerlos de nuevo. Este número depende del material del cristal que se esté utilizando para almacenarlos. A medida que aumenta la cantidad de hologramas grabados en un mismo cristal, disminuye la intensidad con que se ve cada holograma, es decir, que sedisminuye la intensidad del haz de referencia difractado, y esto hace que la luz proyectada a la matriz de sensores sea difusa luego la información almacenada no será confiable al recuperarla.
Parte de la investigación que se está desarrollando en el área de los dispositivos de almacenamiento holográfico, ha sido dirigida a mejorar las técnicas de detección de las señales que salen del cristal hacia los sensores, con el fin de detectar de manera más confiable señales luminosas más débiles, aumentando así el número de hologramas que se pueden almacenar en cada parte. Igualmente se están experimentando técnicas que permitan grabar hologramas no solamente en una parte del cristal sino en varias partes de un mismo cristal, para poder hacer el proceso que se explicó anteriormente en muchas partes del cristal. También se están desarrollando investigaciones para la creación de nuevos materiales fotosensibles que permitan almacenar más información en menos espacio.
Es posible que en un futuro no muy lejano la implantación de la técnica de almacenamiento holográfico reemplace a los actuales discos ópticos, debido a las grandes ventajas que se posee esta técnica.














Bodega de datos

Definición. Un data warehouse es un conjunto de datos integrados orientados a una materia, que varían con el tiempo y que no son transitorios, los cuales soportan el proceso de toma de decisiones de la administración. (W.H. Inmon, considerado como el padre del data warehouse). Data warehouse es un concepto relativamente nuevo, orientado al manejo de grandes volúmenes de datos, provenientes de diversas fuentes, de muy diversos tipos. Estos datos cubren largos períodos de tiempo, lo que trae consigo que se tengan diferentes esquemas de las bases de datos fuentes. La concentración de esta información esta orientada a su análisis para apoyar la toma de decisiones oportunas y fundamentadas. Su nombre, Data warehouse (bodega o almacén de datos) lo asocia con una colección de datos de gran volumen, provenientes de sistemas en operación y otras fuentes, después de aplicarles los procesos de análisis, selección y transferencia de datos seleccionados. Su misión consiste en, a partir de estos datos y apoyado en herramientas sofisticadas de análisis, obtener información útil para el soporte a la toma de decisiones.
El Data warehousing o almacenamiento de datos es el proceso de reunir información histórica de una organización en una(s) base(s) de datos central(es).
Los datos tendrán su fuente en los sistemas operacionales, de los cuales se seleccionara la información a transferir. Estos datos pueden estar almacenados en bases de datos relacionales, archivos jerárquicos, archivos planos, etc. Por lo anterior es necesario analizar y definir cuidadosamente que datos representan la esencia o filosofía del negocio que se pretenda manejar y cuales serán importantes para la meta que se le ha determinado a la bodega de datos.La información sobre los datos importados se almacena en metadatos, que son precisamente los que describen a los datos provenientes de los sistemas operacionales. Los metadatos guardan información sobre los formatos, significado y origen de los datos y facilitan, por lo tanto, el acceso, la navegación y la administración de los datos en la bodega. Son datos sobre los datos.
Fuente de Datos: Datos operativos actualizados por aplicaciones OLTP (On Line Processing Transaction. Procesamiento de transacciones en línea.). Están almacenados en las bases de datos operacionales.
Bases de Datos Integrados: Organizados a través de intereses concretos. Información histórica reflejando transacciones OLTP, acumulada por años o en general por periodos largos. Esto lo diferencia de otras bases de datos. Generalmente son bases de datos relacionales. Se puede decir que es el servidor de apoyo de decisiones que añade valor a los datos procedentes de las fuentes en producción.
Directorio de Información: Presenta al sistema qué datos están disponibles, en qué formato y cómo acceder a ellos. Construye sus metadatos a partir de los metadatos de las bases de datos que están en la red. Son vital ayuda para los Administradores de Bases de Datos DBA.
Administrador de duplicación de datos: Encargado del copiado y distribución de los datos de acuerdo con el diseño. Se determinan los datos a copiar, desde donde y hacia donde, periodos para las actualizaciones. Se determina si se realiza una regeneración (copia de la fuente de datos en su totalidad) o una actualización (solo se propagan los cambios). Contienen información detallada y agregada. El tamaño de estas bases de datos es muy grande, se suelen clasificar en: Pequeñas: 0-100 GBytes Medianas: 100-500 GBytes Grandes: mas 500 GBytes Incluye Metadatos. Los metadatos llevan registros de los datos almacenados, integrados en la misma base de datos. Describen el contenido de la base de datos de información. Describen las tablas, índices y el contenido de los datos. Los metadatos definen los formatos, significado y origen de los datos y facilitan el acceso y administración a los datos en la bodega.
Soporte de herramientas DSS: Proveen la interfaz humana con la bodega de datos. En el procesamiento de la información se pasa de simples consultas SQL a OLAP y de esta a Minería de Datos.


Los elementos tocados, dan a entender que un Data Warehouse difiere de las bases de datos que soportan las transacciones diarias en los negocios. Veamos algunos aspectos:
  1. En los sistemas operativos la información está organizada para que sea recuperada y actualizada fácilmente. Se normaliza para estos fines. Dicha organización esta orientada a la aplicación. Un data warehouse esta organizado y orientado con vista al usuario final, buscando que el análisis a través de requerimientos empresariales correcto sea posible.
  2. Las bases de datos OLPT son accesadas continuamente a lo largo de una jornada de trabajo, mientras que las bases de datos de apoyo de decisiones son accesadas esporádicamente.
  3. Los datos almacenados en la bodega de datos comprenden largos períodos de tiempo. Durante este lapso en la empresa se han presentado cambios tecnológicos y de implementación de las fuentes de datos, es usual que se requiera condensar información desde diferentes productos de bases de datos y dentro de estas, diferentes esquemas que se han dado en el tiempo.
  4. Consistente con lo anterior es claro que los volúmenes de datos que se administran en una bodega de datos son muy grandes. Por lo cual la condensación y agregación es necesaria. En un Data Warehouse se encuentra información con diferentes grados de granularidad.
REQUERIMIENTOS PARA LA CONSTRUCCIÓN DE UNA BODEGA DE DATOS
HARDWARE

Se requiere de un servidor para el almacenamiento y manejo de la base de datos corporativa; este servidor se recomienda que sea altamente escalable, pues algunas veces el proyecto de construcción de la bodega presenta redimensionamiento a medida que se avanza en la implementación. La capacidad inicial de almacenamiento estará determinada por los requerimientos de información histórica presentados por la empresa y por la perspectiva de crecimiento que se tenga.
Dependiendo del diseño del sistema, puede ser necesario contar con un segundo servidor para las herramientas de consulta de datos. Este equipo debe tener el sistema operativo recomendado por el proveedor de la herramienta a utilizar, siendo el más usado alguna versión de Windows.
Las estaciones de trabajo de cada usuario deberán cumplir con las características recomendadas por el proveedor de la herramienta de consulta seleccionada.

HERRAMIENTAS DE SOFTWARE
Las herramientas se clasifican en cuatro categorías básicas: Herramientas de Almacenamiento (bases de datos, multidimensionales), Herramientas de Extracción y Colección, Herramientas para Reportes de Usuario Final y Herramientas para Análisis Inteligentes.

Herramientas de Almacenamiento: corresponde a la herramienta en la cual se irán a almacenar los datos. Existen muchas opciones dependiendo del volumen de los datos, presupuesto y capacidad de su sistema. Cada uno de los sistemas de administración de bases de datos, como Oracle, DB2, Informix, TeraData, Sybase, etc, tienen una facilidad de Data Warehouse.

Herramientas de Extracción y Colección: Ayudan a definir, acumular, totalizar y filtrar los datos de sus sistemas transaccionales en el Data Warehouse. La mayoría de esas herramientas son desarrolladas por el personal interno de la compañía dado el gran conocimiento que tienen de los sistemas transaccionales.

Herramientas para Elaboración de Reportes a Usuarios Finales: Es la interfase vista por el usuario. Al usuario se le debe proveer un mecanismo para que vea los datos a un alto nivel y que entonces obtenga con ello la solución a preguntas específicas. Existen muchas herramientas, incluyendo Cognos Powerplay, Business Objects, SAS, ShowCase Strategy etc.
Herramientas de Análisis Inteligente: Entre ellas están las de empresas como IBM, SAS, Arbor, Cognos, Business Objects, entre otras. Estas herramientas han sido construidas utilizando inteligencia artificial que buscan alrededor del Data Warehouse modelos y relaciones en los datos. Estas herramientas utilizan una técnica conocida como Data Minning o Minería de datos.
Uso de herramientas OLAP (data warehouse)
Se debe recordar que no es suficiente con almacenar datos, es necesario procesarlos para convertirlos en información importante para la organización.
Los sistemas de apoyo a las decisiones (DSS), conectan a las personas con las bodegas de datos. De la calidad de estas herramientas depende el grado de aprovechamiento de estas. Pueden ser:
Herramientas de consultas / reportes, con interfaz gráfica, sin usar sentencias SQL, realizar queries o peticiones complejas.
Herramientas OLAP (On-Line Analytical Processing). Permiten obtener información generando consultas multidimensionales, con columnas y filas móviles y diversos grados de agrupamiento para diferentes parámetros.

Modelo Multidimensional: Modelo estilo hoja de cálculo.
a. Elementos:

Medidas: Valores de interés
Dimensiones, Atributos, Propiedades Visión de Cubos, Datos representados en forma de arreglos multidimensionales.

b. Visión de Relaciones:
Tablas de hechos (Fact Table): Ejemplo: ventas.
Tablas de dimensiones: Ejemplo: tiempo, producto, geografía.
Usualmente se maneja el tiempo como una tabla. Esto permite colocar atributos a la fecha. La normalización genera un efecto denominado copos de nieve, es preferible usar el método de la estrella, donde las relaciones son mas claras. La actualización se hace por periodos, no en línea.

Tipos de servidores OLAP.

MOLAP: Multimensionales OLAP.
Arreglos multidimensionales.
No escalan a grandes volúmenes.
No hay estándar.
Muy eficiente.
Realmente guarda el cubo de decisión.
Interfaz estilo hoja de cálculo.
Principalmente operaciones de agregación de medidas diferentes.
Niveles jerárquicos de las dimensiones.
Subir o bajar en los niveles de agregación (Roll-up, Drill-Down).
Otras operaciones comunes: Filtrar y rotar. Slice and Dice.
La herramienta RAD de Inprise, Delphi, permite la construcción de cubos de decisión a partir de consultas SQL, con varios parámetros de agrupación y fácil manipulación. Ver
ROLAP: Relational OLAP.
Relaciones.
Consultas SQL
Escalan bien a grandes volúmenes
Son menos eficientes.
HOLAP: Híbrido OLAP.
Datos agregados. MOLAP
Datos detallados. ROLAP

Construcción del Data Warehouse.
El ciclo del desarrollo del data warehouse no difiere en mucho de las fases de perfeccionamiento de todos los desarrollos de software. Las fases y las secuencias son las mismas, pero existen variantes únicas asociadas al data warehouse.

Planeación
En esta fase se determina: El enfoque que se optará para la implementación: Top-Down (De Arriba abajo), Bottom-up (De abajo a arriba) o una combinación de estas dos. La metodología de desarrollo: Las más usuales son el método de análisis y diseño estructurado y el método del desarrollo en espiral.

Requerimientos
Especificación clara y precisa de las funciones que se esperan obtener del data warehouse. Estos deben definirse desde varias perspectivas: propietario, arquitecto o desarrollador del data warehouse y desde la visión del usuario. Se definen las áreas tema que apoyará la bodega de datos, las dimensiones de categorización (tiempo, geografía, industria, grupo de clientes, línea de producto, etc.).

Análisis
Consiste en convertir todos los requerimientos conseguidos en la fase anterior en especificaciones concretas que sirvan de base para el diseño. Se definen los modelos lógicos de los datos para el data warehouse, los mercados de datos, definir los procedimientos de conexión con las fuentes de datos y el data warehouse y las herramientas de acceso del usuario final.

Diseño
Los modelos lógicos conseguidos en la anterior fase se convierten en modelos físicos. Se generan los diseños para programas y procesos que se requieren según la arquitectura, tanto a nivel de los datos como de aplicación. Construcción. Se conoce también como diseño físico y consiste en plasmar en la práctica, los diseños lógicos de la fase anterior. Incluye la construcción de programas que creen y modifiquen las bases de datos, que extraigan datos de las fuentes, programas para transformación de datos tales como integración, resumen y adición, programas para la actualización de los datos, programas para búsquedas en bases de datos muy grandes.

Montaje
Relacionados con la instalación, puesta en marcha y uso del data warehouse. Un elemento importante consiste en concientizar a los usuarios sobre la disponibilidad, beneficios y presentación de data warehouse, esto se conoce como comercialización de la información.
Si desea conocer mas del tema, dejamos un link con mayor informacion sobre bases de datos: