lunes, 20 de abril de 2009

¿COMO OPTIMIZAR EL RENDIMIENTO DE TU PC?

Primero que todo debes eliminar archivos que no te sirva y que no necesites en tu computador; luego debes hacer un proceso de mantenimiento en el cual mediante un programa debes chequear todos tus datos y programas que tienes en el computador en busca de virus (vacunar) y si los hay eliminarlos.

Luego de hacer esto, si quieres optimizar mas el rendimiento de tu computador te recomiendo que instales el ULTIMATE DEGRAF.

El UltimateDefrag es uno de los desfragmentadores más poderosos del momento, en lo que a términos de la colocación de archivos y flexibilidad se refiere.

La clave de los buenos resultados de este software, se encuentra en una estratégica colocación de los archivos en su disco duro durante le poseso de desfragmentación. Así, cuando desfragmentas tu disco duro, consigues recuperar y optimizar tu disco duro, aumentando su rendimiento y velocidad de acceso a los archivos.

El ultimate defrag optimiza el rendimiento del PC entre un 100 y 150 %.

Lo puedes descargar ingresando en el siguiente link:

http://ultimatedefrag.softonic.com/descargar

¿COMO DESCARGAR VIDEOS DESDE "YOU TUBE" ?


Agrega la palabra "bajar" ó "descargar" al enlace del video de youtube. Ejemplo, cuando estemos viendo el video en youtube.com para descargar este video: http://www.youtube.com/watch?v=2VCN6VyKKlo deberemos agregar la palabra "bajar" en el enlace que aparece en el campo de direccion en tu navegador antes de youtube, debe quedar así:
http://bajaryoutube.com/watch?v=2VCN6VyKKlo luego simplemente cargas ese enlace donde podras bajar el video y visualizarlo si lo deseas.

martes, 14 de abril de 2009

EL TECLADO

TECLADO QWERTY

Un teclado es un periférico o dispositivo que consiste en un sistema de teclas, como las de una máquina de escribir, que permite introducir datos a un ordenador o dispositivo digital.
Cuando se presiona un carácter, se envía una entrada cifrada al ordenador, que entonces muestra el carácter en la pantalla. El término teclado numérico se refiere al conjunto de teclas con números que hay en el lado derecho de algunos teclados (no a los números en la fila superior, sobre las letras). Los teclados numéricos también se refieren a los números (y a las letras correspondientes) en los teléfonos móviles.


Las teclas en los teclados de ordenador se clasifican normalmente de la siguiente manera:

  1. Teclas alfanuméricas: letras y números.
  2. Teclas de puntuación: coma, punto, punto y coma, entre otras.
  3. Teclas especiales: teclas de funciones, teclas de control, teclas de flecha, tecla de mayúsculas, entre otras.

Historia

Disposición de las teclas
La disposición de las teclas se remonta a las primeras máquinas de escribir, las cuales eran enteramente mecánicas. Al pulsar una letra en el teclado, se movía un pequeño martillo mecánico, que golpeaba el papel a través de una cinta impregnada en tinta. Al escribir con varios dedos de forma rápida, los martillos no tenían tiempo de volver a su posición por la frecuencia con la que cada letra aparecía en un texto. De esta manera la pulsación era más lenta con el fin de que los martillos se atascaran con menor frecuencia.

Sobre la distribución de los caracteres en el teclado surgieron dos variantes principales: la francesa AZERTY y la alemana QWERTZ. Ambas se basaban en cambios en la disposición según las teclas más frecuentemente usadas en cada idioma.

Existen distintas distribuciones de teclado, creadas para usuarios de idiomas diferentes. El teclado estándar en español corresponde al diseño llamado QWERTY. Una variación de este mismo es utilizado por los usuarios de lengua inglesa. Para algunos idiomas se han desarrollado teclados que pretenden ser más cómodos que el QWERTY, como por ejemplo el Teclado Dvorak.

TECLADO QWERTY:El teclado QWERTY es la distribución de teclado más común. Fue diseñado y patentado por Christopher Sholes en 1868 y vendido a Remington en 1873. Su nombre proviene de las primeras seis letras de su fila superior de teclas.

TECLADO AZERTY:El teclado AZERTY es una distribución de teclado que se utiliza en algunos países francófonos. Tiene varias diferencias con el teclado QWERTY:
A y Q están intercambiadas.
Z y W están intercambiadas.
M se mueve de la derecha de N a la derecha de L (en lugar de coma/punto y coma (US), eñe (ES), etc.).
Los dígitos 1-0 de la fila superior ocupan las mismas teclas, pero para escribirlos debe pulsarse shift (mayúsculas). La posición por defecto se usa para mostrar vocales acentuadas en minúsculas.

martes, 31 de marzo de 2009

STORY BOARD

Es un conjunto de ilustraciones mostradas en secuencia con el objetivo de dar a entender una historia, previsualizar una animación o seguir la estructura de una película antes de realizarse o filmarse.

martes, 17 de marzo de 2009

REACTIVOS ELECTROFILICOS Y NUCLEOFILICOS

Los reactivos electrofílicos o electrófilos: son especies capaces de aceptar electrones y por consiguiente son acidos de Lewis.
Los reactivos nucleofílicos o nucleófilos: son reactivos dadores de electrones y por tanto bases de Lewis.
Según esta definición ¿qué diferencia hay entre un ácido de Lewis y un electrófilo, o entre una base de Lewis y un nucleófilo? ¿a qué reactivos hay que aplicar el concepto de electrófilo o de nucleófilo?
La diferencia electrófilo/ácido de Lewis o nucleófilo/base de Lewis se basa en conceptos cinéticos y termodinámicos.
La basicidad y la acidez son conceptos termodinámicos y por tanto se refieren a la posición de equilibrio entre un dador de electrones y un ácido. Por ejemplo, cuando se afirma que una base es fuerte se entiende que, en la reacción con ácidos, el equilibrio está desplazado hacia la derecha.
Al contrario que el concepto de acidez/basicidad, la electrofilia y la nucleofilia son conceptos cinéticos: un buen nucleófilo es una especie química que reacciona rápidamente con electrófilos.
Por ejemplo, cuando el ión metóxido CH3O- y el ión mercapturo CH3Sreaccionan con el agua, se deja que las reacciones alcancen el equilibrio, se miden las concentraciones de las especies y se calculan las constantes de equilibrio se observa que la Kb de la reacción del metóxido es mayor que la Kb de la reacción del ión mercapturo. Por tanto se concluye que el metóxido CH3O- es una base más fuerte que el ión CH3S-.
Al contrario que la basicidad, la nucleofilia es un concepto cinético y se refiere a la velocidad con que determinadas especies reaccionan con los sustratos
Por ejemplo, la reacción del metóxido con el bromuro de metilo forma el dimetil éter y la reacción del mercapturo con el bromuro de metilo forma el dimetil tioéter. Cuando se mide la velocidad de estas dos reacciones se observa que el mercapturo reacciona mucho más rápidamente que el metóxido y se concluye que el ión mercapturo es un nucleófilo más fuerte que el ión hidróxido.

martes, 10 de marzo de 2009

ANIMACION


Es la técnica para dar sensación de movimiento a imágenes o dibujos.
Para realizar animación existen numerosas técnicas que van más allá de los familiares dibujos animados. Los cuadros se pueden generar dibujando, pintando, o fotografiando los minúsculos cambios hechos repetidamente a un modelo de la realidad o a un modelo tridimensional virtual; también es posible animar objetos de la realidad y actores.


Los tipos de animación mas usados son:


Pixelación: Es un cambio del stop motion, en la que los objetos animados son auténticos objetos comunes e incluso personas. Al igual que en cualquier otra forma de animación, estos objetos son fotografiados repetidas veces, y desplazados ligeramente entre cada fotografía.
La Pixelación consiste en animar personas. Aunque puede parecer paradójico, puesto que las personas ya estamos “animadas”, el resultado es sorprendente porque vemos como podemos aparecer, desaparecer, desplazarnos sin mover las piernas, volar y hacer todo tipo de actividades dignas de un mago.
Rotoscopía: Se basa en dibujar directamente sobre la referencia, que pueden ser los cuadros de la filmación de una persona real. Así se animó en Disney a Blanca nieves, protagonista del primer largometraje animado de Disney. Su análoga infográfica puede considerarse la captura de movimiento.
Animación de Recortes: Es la técnica en que se usan figuras recortadas, ya sea de papel o incluso fotografías. Los cuerpos de los personajes se construyen con los recortes de sus partes. Moviendo y sustituyendo las partes se obtienen diversas poses, y así se da vida al personaje.
Wings 3D: Está hecho para modelar y texturizar elementos formado con un número de polígonos menor. Cuando se compara con otros programas de 3D (como puede ser Blender), se observan las diferencias existentes sobre todo en la interfaz gráfica de usuario. Esto hace más flexible el trabajar con el programa pero está muy limitado en ciertas áreas.

martes, 3 de marzo de 2009

HISTORIA DE FLASH


Flash comenzó cuando el arquitecto jonathan gay descubrió que el mundo de los planos no era realmente lo que buscaba; fue entonces cuando descubrió Apple 2 y las ventajas que podría traer al mundo del diseño.
Inicio haciendo juegos simples en Basic, luego descubrió Pascal y creo su primer editor de imágenes “super paint”.
en un grupo de usuarios de Macintosh, Gay conoció a Charlie Jackson el cual estaba en planes de fundar Silicon Beach Software. Jackson contrató medio tiempo a Gay y lo empujó para que realizar Airbone I, el primer juego para Mac que tenía sonido digital.
Después de seguir en el desarrollo de videojuegos y trabajar en SuperPaint II, Gay comenzó a trabajar de tiempo completo en Silicon Beach Software, tratando de desarrollar software para el desarrollo de graficos.
El siguiente programa para el desarrollo de gráficos fue el Intellidraw, que trataba de competir con Adobe Illustrator y el Aldus Freehand. La ventaja que ofrecía el Intellidraw, es que no sólo era una herramienta de dibujo, sino que podía otorgar comportamiento a los gráficos, como manejar gráficas de barras introduciendo valores numéricos.
Fundo su propia compañía llamada FutureWave Software en Enero de 1993, con su oficina principal en San Diego, con la misión de dominar el mercado de los programas de diseño grafico.
Uno de los productos que realizó la nueva compañía fue el SmartSketch diseñado para captar la atracción de las imágenes pintadas.
La evolución llegó a tal grado que comenzaron a crear plug- ins para Netscape, que en un inicio corrían muy lentamente. En este momento el programa recibió el nombre de Future Splash Animator (también llamado CellAnimator).
En Noviembre de 1996 cuando Macromedia invitó a FutureWave a trabajar juntos, y posteriormente realizar la compra de esta, con lo que para diciembre de ese mismo año Future Splash Animator se convirtió en Macromedia Flash 1.0. FutureSplash Animator fué un programa de animación en 2-D para la worl wide web.
Hoy en día, FLASH es una herramienta que dista mucho de lo que fue en su comienzo, aunque la idea original perdura, ahora la programación forma parte de un entorno gráfico, dándole una potencia muy fuerte en el desarrollo de sitios web.

lunes, 23 de febrero de 2009

DOMOTICA


El término domótica proviene de la unión de las palabras domus (que significa casa en latín) y tica (de automática, palabra en griego, 'que funciona por sí sola'). Se entiende por domótica al conjunto de sistemas capaces de automatizar una vivienda, aportando servicios de gestión energética, seguridad, bienestar y comunicación, y que pueden estar integrados por medio de redes interiores y exteriores de comunicación, cableadas o inalámbricas, y cuyo control goza de cierta ubicuidad, desde dentro y fuera del hogar. Se podría definir como la integración de la tecnología en el diseño inteligente de un recinto.


Arquitectura

Desde el punto de vista de donde reside la inteligencia del sistema domótico, hay varias arquitecturas diferentes:


  • Arquitectura Centralizada: un controlador centralizado recibe información de múltiples sensores y, una vez procesada, genera las órdenes oportunas para los actuadores.

  • Arquitectura Distribuida: toda la inteligencia del sistema está distribuida por todos los módulos sean sensores o actuadores. Suele ser típico de los sistemas de cableado en bus, o redes inalámbricas.

  • Arquitectura mixta: sistemas con arquitectura descentralizada en cuanto a que disponen de varios pequeños dispositivos capaces de adquirir y procesar la información de múltiples sensores y transmitirlos al resto de dispositivos distribuidos por la vivienda, p.ej. aquellos sistemas basados en Zigbee y totalmente inalámbricos.

REALIDAD VIRTUAL


Realidad virtual es un sistema o interfaz informatico que genera entornos sintéticos en tiempo real, representación de las cosas a través de medios electrónicos o representaciones de la realidad, una realidad ilusoria, pues se trata de una realidad perceptiva sin soporte objetivo, sin red extensa, ya que existe sólo dentro del ordenador. Por eso puede afirmarse que la realidad virtual es una pseudorrealidad alternativa, perceptivamente hablando.
La virtualidad establece una nueva forma de relación entre el uso de las coordenadas de espacio y de tiempo, supera las barreras espaciotemporales y configura un entorno en el que la información y la comunicación se nos muestran accesibles desde perspectivas hasta ahora desconocidas al menos en cuanto a su volumen y posibilidades.
La realidad virtual puede ser de dos tipos: inmersiva y no inmersiva.


La realidad virtual inmersiva: Con frecuencia se liga a un ambiente tridimensional creado por un ordenador, el cual se manipula a través de cascos, guantes u otros dispositivos que capturan la posición y rotación de diferentes partes del cuerpo humano.


La realidad virtual no inmersiva: Ofrece un nuevo mundo a través de una ventana de escritorio. Este enfoque no inmersivo tiene varias ventajas sobre el enfoque inmersivo como son el bajo coste y fácil y rápida aceptación de los usuarios. Los dispositivos inmersivos son de alto coste y generalmente el usuario prefiere manipular el ambiente virtual por medio de dispositivos familiares como son el teclado y el ratón que por medio de cascos pesados o guantes.

NANOTECNOLOGIA


La palabra “nanotecnología” es usada extensivamente para definir las ciencias y técnicas que se aplican al un nivel de nanoescala, esto es unas medidas extremadamente pequeñas “nanos” que permiten trabajar y manipular las estructuras moleculares y sus átomos. En síntesis nos llevaría a la posibilidad de fabricar materiales y máquinas a partir del reordenamiento de átomos y moléculas. El desarrollo de esta disciplina se produce a partir de las propuestas de Richard Feynman.
La nanotecnologia es el estudio, diseño, creación, síntesis, manipulación y aplicación de materiales, aparatos y sistemas funcionales a través del control de la materia a nano escala, y la explotación de fenómenos y propiedades de la materia a nano escala.
Cuando se manipula la materia a la escala tan minúscula de átomos y moléculas, demuestra fenómenos y propiedades totalmente nuevas. Por lo tanto, científicos utilizan la nanotecnología para crear materiales, aparatos y sistemas novedosos y poco costosos con propiedades únicas.

ROBOTICA


La robótica es una rama de la ingeniería. Pero la parte más atractiva de ella es que mezcla muchos aspectos diferentes. Es necesaria la programación, la electrónica, la mecánica y por supuesto una gran cantidad de esfuerzo y dedicación. Las ideas probablemente sean lo más importante en un futuro (sino lo son ya) por lo que las personas con más imaginación y creatividad serán fundamentales en este campo aún por desarrollar. En mi opinión, la robótica tendrá una gran importancia en no mucho tiempo, sufriendo una revolución e implantación masiva como la que sufrió el ordenador en todos los hogares.
Las aplicaciones actuales de la robótica son grandes pero en parte por la falta de conocimiento por parte de la mayoría de la población aún no se ha implantado completamente. Bueno, en realidad si lo ha hecho, pero la mayoría de la gente no lo sabe. ¿Como funciona el microondas, o el mando a distancia, o la parte electrónica de un coche? Realmente todo está robotizado (responde de cierta forma a un estímulo determinado), aunque generalmente esto se considera como electrónica. Un robot se suele llamar a algo que se mueve.Ultimamente la domótica es cada vez más interesante y ya se implanta en algunas casas nuevas. En tareas de precisión y peligrosas es más que necesario (para la desactivación de bombas) y a medio plazo será fundamental para la exploración del espacio (ya se usan algunos en Marte, como el rover Opportunity).
Historia
La historia de la robótica ha estado unida a la construcción de "artefactos", que trataban de materializar el deseo humano de crear seres a su semejanza y que lo descargasen del trabajo. El ingeniero español Leonardo Torres Quevedo (GAP) (que construyó el primer mando a distancia para su torpedo automóvil mediante telegrafía sin hilo, el ajedrecista automático, el primer transbordador aéreo y otros muchos ingenios) acuñó el término "automática" en relación con la teoría de la automatización de tareas tradicionalmente asociadas a los humanos.

INTELIGENCIA ARTIFICIAL


Denominamos inteligencia artificial a la rama de la informática que desarrolla procesos que imitan a la inteligencia de los seres humanos. La principal aplicación de esta ciencia es la creación de máquinas para la automatización de tareas que requieran un comportamiento inteligente.La inteligencia Artificial se divide en dos escuelas de pensamiento, las cuales son: La inteligencia artificial convencional y la Inteligencia artificial computacionalLa inteligencia artificial convencional esta Basada en el análisis del comportamiento humano ante diferentes problemas ligados, por ejemplo, con el razonamiento y la toma de decisiones.La inteligencia computacional (también conocida como inteligencia artificial subsimbólica) implica desarrollo o aprendizaje repetitivo.Los primeros desarrollos en inteligencia artificial comenzaron a mediados de los años 1950 con el trabajo de Alan Turing.El término fue inventado en 1956 por John McCarthy, Marvin Minsky y Claude Shannon en la Conferencia de Dartmouth , un congreso en el que se hicieron previsiones triunfalistas a diez años que jamás se cumplieron, lo que provocó el abandono casi total de las investigaciones durante quince añosFue en los años 60 cuando Alan Newell y Herbert Simon, que trabajando la demostración de teoremas y el ajedrez por ordenador logran crear un programa llamado GPS (General Problem Solver: solucionador general de problemas)En la actualidad se está tan lejos de cumplir la prueba de Turing como cuando se formuló: “Existirá Inteligencia Artificial cuando no seamos capaces de distinguir entre un ser humano y un programa de computadora en una conversación a ciegas”Así, aplicando literalmente la definición de Inteligencia Artificial, no cabe otra posibilidad que pensar en máquinas inteligentes, es decir, sin emociones que obstaculicen encontrar la mejor solución a un problema dadoEl concepto de Inteligencia Artificial que la mayoría de las personas podemos hacernos es muy distinto al descrito anteriormente, pues lo que realmente produciría curiosidad experimental es un dispositivo con emocionesY aquí es donde finaliza la ciencia, porque hoy por hoy, no existe sistema informático capaz de desarrollar emociones, pues en la naturaleza, el origen de las emociones fue la supervivencia de la especieY dotar a una máquina de instinto de supervivencia sería casi imposible, pues el instinto de supervivencia está impreso en cada célula del cuerpo humano.Y hasta el momento la Inteligencia Artificial se basa en conocimiento humano, no conocimiento desarrollado. Por esto es que se dice que queda aun mucho tiempo para alcanzar las metas que se propusieron científicos desde hace unos 50 años.

La IA se divide en dos escuelas de pensamiento:
Inteligencia Artificial Convencional: Se conoce también como IA simbólico-deductiva e IA débil. Está basada en el análisis formal y estadístico del comportamiento humano ante diferentes problemas:
  • Razonamiento basado en casos: Ayuda a tomar decisiones mientras se resuelven ciertos problemas concretos.

  • Sistemas expertos: Infieren una solución a través del conocimiento previo del contexto en que se aplica y de ciertas reglas o relaciones.

  • Redes bayesianas: Propone soluciones mediante inferencia estadística.

  • Inteligencia artificial basada en comportamientos: que tienen autonomía y pueden auto-regularse y controlarse para mejorar.

    Inteligencia Artificial Computacional: La Inteligencia Computacional (también conocida como IA subsimbólica-inductiva o IA fuerte) implica desarrollo o aprendizaje interactivo (por ejemplo, modificaciones interactivas de los parámetros en sistemas conexionistas). El aprendizaje se realiza basándose en datos empíricos.