Translate

viernes, 22 de febrero de 2013

Control y Atención a Nuestros Hijos en el Manejo del Computador

Uso de las computadoras para nuestros Hijos

La gran mayoría de los papás que tiene a sus hijos en un Jardín de Infancia hoy, son los niños que tuvieron como principal influencia a la televisión, ayer. Pero la nueva maravilla moderna, punto de interminables debates en la actualidad, es la computadora.

Con una mayor cantidad de aristas, la computadora y su caracter de nexo con Internet, la hacen un objeto sobre el cual debemos establecer mayores cuidados y reglas, pues su efecto adictivo es muy fuerte; mucho más de lo que fue la televisión.

En cuanto a la edad, no es aconsejable que un pequeño se inicie en el mundo de la computación antes de los 3 años. La razón es que a esta edad ellos tiene otras necesidades que las computadoras no pueden (o no deben) satisfacer, como caminar, hablar, socializarse, etc. Esta es además una edad en la que los niños aprenden a través del cuerpo, de la mirada, de su capacidad auditiva y motora. Su habilidad para interactuar con los adultos, con otros niños, con sus juguetes y en general con su entorno son parte del proceso de aprendizaje para lograr su desarrollo integral.





Las computadoras no encajan aun en este proceso. Pero pasada esta edad, especialmente desde los 4 años, los niños ya tienen el desarrollo mental suficiente como para explorar las infinitas alternativas que les brinda esta tecnología, siempre con mesura.

Igual que nos pasó con la televisión, la "compu" puede ser una herramienta útil para el niño si la manejamos adecuadamente y con moderación. Entre sus beneficios se reconoce que:
Aumenta el razonamiento matemático.
Incentiva la creatividad.
Desarrolla habilidades no verbales (inteligencia, memoria, coordinación óculo-manual, abstracción y conceptualización).
A pesar de estos beneficios, a los cuales los niños accederán adecuadamente si se establecen los parámetros correctos, la computadora jamás será reemplazo de las necesidades interactivas y de socializacion de los pequeños. Los niños necesitan el aire libre, el contacto y la experimentación del mundo con sus propios sentidos.

Activar Internet en la computadora, dependerá de lo preparados que estemos para ejercer una función de asesoría y compañía constante, pues hay infinidad de contenidos útiles, pero también los hay dañinos. Ejerciendo una correcta supervisión, navegar por Internet puede ser una experiencia familiar valiosa, pues cada tema que vaya apareciendo dará pie al intercambio de opiniones. Para una mayor seguridad, infórmate sobre los recursos de vetado y censura de los espacios en la red.




Al igual que la televisión, la computadora necesita ocupar un tiempo limitado definido en horarios. Los especialistas recomiendan algunos rangos, de acuerdo con la edad del niño:

Entre 3 y 7 años: 1 hora como máximo, no más de 3 veces por semana.
Entre 8 y 12 años: El mismo tiempo para los juegos (de preferencia educativos), y un poco más sólo en caso de usarse para tareas e investigación escolar.
Durante la sesión, es igualmente recomendable apagar o retirarse de la computadora cada cierto tiempo (cada 30 minutos aproximadamente, por 15 o 30 minutos) para que el niño tome aire, salga a jugar, bailar, cantar, inventar historias, explorar, etc. Es decir, todo lo que un niño haría si no existiese el aparato.

Se recomienda, en general, seleccionar páginas web que fomenten valores sociales. Para niños de 3 a 5 años, los programas que incentiven la creatividad, habilidades del lenguaje, alfabetización temprana y resolución de problemas. Evita los que presenten mensajes violentos. Luego de cada sesión, es bueno aplicar lo visto en los juegos de la vida real, a través de juegos.





Nunca se debe dejar a los niños solos frente a la computadora. Es necesario estar ahí, pero no diciéndole siempre lo que debe hacer, sino simplemente estando disponibles, en caso requieran ayuda.

Si fuera posible, recomendaríamos apartar a los niños de la computadora de forma total. Pero esto podría ser contraproducente pues, tarde o temprano, el pequeño tendría acceso a ella, incluso a escondidas de sus padres, lo cual lo expondría directamente a contenidos violentos y deformadores que es necesario evitar. Además, el desconocimiento de su naturaleza pondría en desventaja competitiva al futuro profesional. Lo mejor entonces es la aceptación de esta realidad y su regulación conciente y responsable.




Tecnología Deportiva


Tecnologia deportiva

Un Santiago Bernabéu digitalizado


Sabemos que el perfil del aficionado al Real Madrid es A+ o A, pero no pasa más allá de B. No es por querer herir sentimientos ni nada por el estilo, sin embargo, en el futbol como en otros deportes se clasifica a los consumidores como en cualquier otro estrato de la vida (lamentablemente).

El Club Real Madrid ha digitalizado su estadio para ofrecer una experiencia diferente para los aficionados. Se han colocado aproximadamente 500 antenas dentro de todo el estadio para que la red wifi llegue a los dispositivos del aficionado sin problemas.

La última tecnología llegará al Santiago Bernabéu para estar acorde a las necesitades de la era digital ofreciendo una amplia cobertura de wifi y HD para las más de 700 televisiones que se encuentran distribuidas por pasillos y palcos del estadio.





Boost: La nueva tecnología de adidas Running




Inmediatamente viene a mi mente cierta bebida de color azul cuando escucho la palabra Boost. Sin embargo, lo que les cuento aquí tiene que ver con la nueva tecnología desarrollada por la marca adidas para los amantes del buen correr.

Ciertamente las marcas deportivas enfocan gran parte de sus esfuerzos en crear zapatillas que incrementen el confort de los deportistas. Principalmente aquellos a los que gustan de correr diariamente como actividad saludable física y mental.

El confort es la clave de un buen producto para correr. De nada sirve hacerlo incomodo y menos cuando tus pies y piernas son las partes que los resienten directamente.

La tecnología Boost basa su potencial en un revolucionario material de acojinamiento que no sólo proporciona el mayor retorno de energía de la industria; también mantiene su desempeño bajo cualquier condición a niveles sin precedentes.

Esta innovadora espuma desarrollada por BASF, la principal compañía química el mundo, explota y convierte el material sólido granular (TPU) en miles de pequeñas cápsulas de energía que forman la distintiva suela del calzado.


Todo esto con el claro objetivo de proporcionar el mayor retorno de energía en la industria del running. Esto se logra por las cápsulas de energía ubicadas en la suela, que almacenan y liberan la energía de manera tan eficiente que los corredores sentirán la diferencia desde el primer momento que usen el calzado.

Para complementar el producto, la parte superior en los componentes del Energy Boost cuenta con tecnología Techfit a base del altamente durable y elástico poliuretano que proporciona un confort óptimo y apoyo a todo el pie mientras está en movimiento. Un material de red que permite la transpiración ofrece la comodidad de una media al ser diseñada con powerbands en la parte superior para dar apoyo y estabilizar el pie cuando está en movimiento.

Será compatible con el sistema miCoach y saldrá a la venta a partir del 27 de febrero alrededor del planeta.

La marca adidas sigue revolucionando la forma de correr.




FIFA aprueba el Hawk-Eye System y Goalreaf



La FIFA autorizó el uso de las tecnologías sobre la línea de meta empleadas en el pasado Mundial de Clubes para estrenarse en la Copa Confederaciones 2013 y el Mundial 2014.

El eterno debate sobre la implementación de la tecnología en el futbol se esclarece de apoco con estas decisiones que aparentemente son positivas para el futbol a nivel mundial.

Con anterioridad les expliqué en qué se basaban las tecnologías Hawk-Eye System  y el Goalreaf.

El punto es evitar más polémicas en competiciones importantes con “goles fantasma” y que las herramientas tecnológicas digan con exactitud si la pelota entró en su totalidad o no.

La FIFA ha invitado a que las empresas que se dediquen a este tipo de cuestiones presenten sus proyectos y así conocer los beneficios que podrían aportarle al futbol.


Me parece una postura positiva de la FIFA que en los últimos días se ha visto envuelta en algunas críticas por las pruebas que confirmaron arreglos de partidos en diferentes confederaciones.

Habría que tener alguna buena forma de desviar la atención un poco… ¿No creen?

No se crean. En mi opinión personal me gustan estas tecnologías, pero espero que se limiten expresamente a esta cuestión de la línea de meta. Después van a querer inventar cualquier cosa y la autoridad de los árbitros se extinguirá como los dinosaurios.

Tecnologia OLED


Diodo orgánico de emisión de luz

OLED (siglas en Inglés de Organic Light-Emitting Diode, en Español diodo orgánico de emisión de luz) es un diodo que se basa en una capa electroluminiscente formada por una película de componentes orgánicos que reaccionan, a una determinada estimulación eléctrica, generando y emitiendo luz por sí mismos.

Visión general

Existen muchas tecnologías OLED diferentes, tantas como la gran diversidad de estructuras (y materiales) que se han podido idear (e implementar) para contener y mantener la capa electroluminiscente, así como según el tipo de componentes orgánicos utilizados.

Características

Puede y podrá ser usado en todo tipo de aplicaciones: televisores, monitores, pantallas de dispositivos portátiles (teléfonos móviles, PDA, reproductores de audio...), indicadores de información o de aviso, etc., con formatos que bajo cualquier diseño irán desde unas dimensiones pequeñas (2 pulgadas) hasta enormes tamaños (equivalentes a los que se están consiguiendo con LCD).
Mediante los OLED también se pueden crear grandes o pequeños carteles de publicidad, así como fuentes de luz para iluminar espacios generales.1 Además, algunas tecnologías OLED tienen la capacidad de tener una estructura flexible, lo que ya ha dado lugar a desarrollar pantallas plegables o enrollables, y en el futuro quizá pantallas sobre ropa y tejidos, etc.
La degradación de los materiales OLED han limitado su uso por el momento. Actualmente se está investigando para dar solución a los problemas derivados de esta degradación, hecho que hará de los OLED una tecnología que puede reemplazar la actual hegemonía de las pantallas LCD (TFT) y de la pantalla de plasma.

Ventajas y Desventajas

Ventajas respecto a pantallas de Plasma, LCD y LCD con retroiluminación LED

Más delgados y flexibles
Por una parte, las capas orgánicas de polímeros o moléculas de los OLED son más delgadas, luminosas y mucho más flexibles que las capas cristalinas de un LED o LCD. Por otra parte, en algunas tecnologías el sustrato de impresión de los OLED puede ser el plástico, que ofrece flexibilidad frente a la rigidez del cristal que da soporte a los LCD o pantallas de plasma.

Más económicos
En general, los elementos orgánicos y los sustratos de plástico serán mucho más económicos. También, los procesos de fabricación de OLED pueden utilizar conocidas tecnologías de impresión de tinta (en inglés, conocida como inkjet), hecho que disminuirá los costes de producción.

Brillo y contraste
Los píxeles de los OLED emiten luz directamente. Por eso, respecto a los LCD posibilitan un rango más grande de colores y contraste.

Menos consumo
Los OLED no necesitan la tecnología backlight, es decir, un elemento OLED apagado realmente no produce luz y no consume energía (el mismo principio usado por las pantallas de PLASMA, solo que la tecnologìa de Plasma no es tan eficiente en el consumo de energìa) y a diferencia de los LCD que no pueden mostrar un verdadero “negro” y lo componen con luz consumiendo energía continuamente. Así, los OLED muestran imágenes con menos potencia de luz, y cuando son alimentados desde una batería pueden operar largamente con la misma carga.

Más escalabilidad y nuevas aplicaciones
Capacidad futura de poder escalar las pantallas a grandes dimensiones hasta ahora ya conseguidas por los LCD y, sobre todo, poder enrollar y doblar las pantallas en algunas de las tecnologías OLED que lo permiten, abre las puertas a todo un mundo de nuevas aplicaciones que están por llegar.

Mejor visión bajo ambientes iluminados
Al emitir su propia luz, una pantalla OLED, puede ser mucho más visible bajo la luz del sol, que una LCD.

Desventajas

Tiempos de vida cortos
Las capas OLED verdes y rojas tienen largos tiempos de vida, pero, sin embargo, la capa azul no es tan duradera; actualmente tienen una duración cercana a las 14.000 horas (8 horas diarias durante 5 años). Este periodo de funcionamiento es mucho menor que el promedio de los LCD, que, dependiendo del modelo y del fabricante, pueden llegar a las 60.000 horas. Toshiba y Panasonic han encontrado una manera de resolver este problema con una nueva tecnología que puede duplicar la vida útil de la capa responsable del color azul, colocando la vida útil por encima del promedio de la de las pantallas LCD. Una membrana metálica ayuda a la luz a pasar desde los polímeros del sustrato a través de la superficie del vidrio más eficientemente que en los OLED actuales. El resultado es la misma calidad de imagen con la mitad del brillo y el doble de la vida útil esperada.
En el 2007, PLED experimentales pudieron sostener 400 cd/m² en brillo por más de 198.000 horas para OLED verdes y 62.000 para los azules.

Proceso de fabricación caro
Actualmente la mayoría de tecnologías OLED están en proceso de investigación, y los procesos de fabricación (sobre todo inicialmente) son económicamente elevados, a no ser que se apueste por un diseño que se utilice en economías de escala.

Agua
El agua puede fácilmente estropear en forma permanente los OLED, ya que el material es orgánico. Su exposición al agua tiende a acelerar el proceso de biodegradación; es por esto que el material orgánico de una OLED suele venir protegido y aislado del ambiente, por lo que la pantalla es totalmente resistente a ambientes húmedos.
Impacto medioambiental
Los componentes orgánicos (moléculas y polímeros) se ha visto que son difíciles de reciclar (alto coste, complejas técnicas). Ello puede causar un impacto al medio ambiente muy negativo en el futuro.


http://es.wikipedia.org/wiki/Diodo_org%C3%A1nico_de_emisi%C3%B3n_de_luz

Navegadores Web

Navegador web


Un navegador o navegador web (del inglés, web browser) es una aplicación que opera a través de Internet, interpretando la información de archivos y sitios web para que éstos puedan ser leídos (ya se encuentre esta red mediante enlaces o hipervínculos)
La funcionalidad básica de un navegador web es permitir la visualización de documentos de texto, posiblemente con recursos multimedia incrustados. Los documentos pueden estar ubicados en la computadora en donde está el usuario, pero también pueden estar en cualquier otro dispositivo que esté conectado en la computadora del usuario o a través de Internet, y que tenga los recursos necesarios para la transmisión de los documentos (un software servidor web).
Tales documentos, comúnmente denominados páginas web, poseen hipervínculos que enlazan una porción de texto o una imagen a otro documento, normalmente relacionado con el texto o la imagen.
El seguimiento de enlaces de una página a otra, ubicada en cualquier computadora conectada a Internet, se llama navegación, de donde se origina el nombre navegador (aplicado tanto para el programa como para la persona que lo utiliza, a la cual también se le llama cibernauta). Por otro lado, hojeador es una traducción literal del original en inglés, browser, aunque su uso es minoritario.

Historia

El primer navegador, desarrollado en el CERN a finales de 1990 y principios de 1991 por Tim Berners-Lee, era bastante sofisticado y gráfico, pero sólo funcionaba en estaciones NeXT.
El navegador Mosaic, que funcionaba inicialmente en entornos UNIX sobre X11, fue el primero que se extendió debido a que pronto el NCSA preparó versiones para Windows y Macintosh. Sin embargo, poco más tarde entró en el mercado Netscape Navigator que rápidamente superó en capacidades y velocidad a Mosaic. Este navegador tuvo la ventaja de funcionar en casi todos los UNIX, así como en entornos Windows.

Estimación del uso en el período 1996-2006.
Internet Explorer (anteriormente Spyglass Mosaic) fue la apuesta tardía de Microsoft para entrar en el mercado y consiguió desbancar al Netscape Navigator entre los usuarios de Windows, debido a la integración del navegador con el sistema operativo, llegando a poseer cerca del 95% de la cuota de mercado. Netscape Communications Corporation liberó el código fuente de su navegador, naciendo así el proyecto Mozilla.
Finalmente Mozilla Firefox fue reescrito desde cero tras decidirse a desarrollar y usar como base un nuevo conjunto de widgets multiplataforma basado en XML llamado XUL y esto hizo que tardara bastante más en aparecer de lo previsto inicialmente, apareciendo una versión 1.0 de gran calidad y para muchísimas plataformas a la vez el 5 de junio de 2002.
A finales de 2004 aparece en el mercado Firefox, una rama de desarrollo de Mozilla que pretende hacerse con parte del mercado de Internet Explorer. Se trata de un navegador más ligero que su hermano mayor.
El 2 de septiembre de 2008 Google Chrome vio la luz. Es el navegador web desarrollado por Google y compilado con base en componentes de código abierto como el motor de renderizado de WebKit y su estructura de desarrollo de aplicaciones (Framework). Google Chrome es el navegador más utilizado en Internet y actualmente posee una cuota de mercado del 27,20%.1 Está disponible gratuitamente bajo condiciones de servicio específicas. El nombre del navegador deriva del término usado para el marco de la interfaz gráfica de usuario


Funcionamiento de los navegadores

La comunicación entre el servidor web y el navegador se realiza mediante el protocolo HTTP, aunque la mayoría de los hojeadores soportan otros protocolos como FTP, Gopher, y HTTPS (una versión cifrada de HTTP basada en Secure Socket Layer o Capa de Conexión Segura (SSL)).
La función principal del navegador es descargar documentos HTML y mostrarlos en pantalla. En la actualidad, no solamente descargan este tipo de documentos sino que muestran con el documento sus imágenes, sonidos e incluso vídeos streaming en diferentes formatos y protocolos. Además, permiten almacenar la información en el disco o crear marcadores (bookmarks) de las páginas más visitadas.
Algunos de los navegadores web más populares se incluyen en lo que se denomina una Suite. Estas Suite disponen de varios programas integrados para leer noticias de Usenet y correo electrónico mediante los protocolos NNTP, IMAP y POP.
Los primeros navegadores web sólo soportaban una versión muy simple de HTML. El rápido desarrollo de los navegadores web propietarios condujo al desarrollo de dialectos no estándares de HTML y a problemas de interoperabilidad en la web. Los más modernos (como Google Chrome, Amaya, Mozilla, Netscape, Opera e Internet Explorer 9.0) soportan los estándares HTML y XHTML (comenzando con HTML 4.01, los cuales deberían visualizarse de la misma manera en todos ellos).
Los estándares web son un conjunto de recomendaciones dadas por el World Wide Web consortium W3C) y otras organizaciones internacionales acerca de cómo crear e interpretar documentos basados en la web. Su objetivo es crear una web que trabaje mejor para todos, con sitios accesibles a más personas y que funcionen en cualquier dispositivo de acceso a Internet.

Ejemplos de navegadores web

Existe una lista detallada de navegadores, motores de renderización y otros temas asociados en la categoría asociada.
KHTML

  • Konqueror (basado por defecto en KHTML)
  • Basado en WebKit (fork KHTML)
  • Safari
  • Chromium
  • Google Chrome
  • SRWare Iron
  • Flock (a partir de la versión 3)
  • Epiphany (a partir de la versión 2.28)
  • Midori
  • Rekonq
  • Arora
  • Dolphin Browser
  • Sleipnir

Internet Explorer y derivados:

  • Avant Browser
  • Maxthon
  • G-Browser
  • Slim Browser
  • AOL Explorer

Mozilla (Gecko) y derivados:

  • Mozilla Firefox
  • Flock (Descontinuado)
  • Iceweasel
  • Netscape Navigator (a partir de la versión 6)
  • Netstep Navigator
  • GNU IceCat
  • SeaMonkey
  • CometBird
  • Beonex
  • Navegador web IBM para OS/2
  • Galeon (Proyecto abandonado)
  • Skipstone
  • K-Meleon para Windows
  • Camino para Mac OS X

Amaya del W3C

  • Abrowse

Netscape Navigator (hasta la versión 4.xx)

  • Opera

iCab
OmniWeb
Dillo
IBrowse
AWeb
Voyager
Espial Escape
HotJava
IEs4Linux
SpaceTime

Navegadores web basados en texto:

  • Links
  • Lynx
  • Bobcat
  • Netrik
  • w3m

Primeros navegadores (que ya no están en desarrollo):

  • Cello
  • CyberDog
  • MidasWWW
  • Mosaic
  • Spyglass Mosaic
  • ViolaWWW
  • OHT-Erwise

El Salon de la Fama del Rock


El Salón de la Fama del Rock




Es un museo situado en Cleveland, Ohio, Estados Unidos dedicado al recuerdo y memoria de los artistas más famosos e influyentes implicados en la industria de la música, con especial foco en el rock and roll.
El edificio fue diseñado por el arquitecto estadounidense de origen chino Ieoh Ming Pei.
Los primeros en ser incluidos fueron Chuck Berry, James Brown, Ray Charles, Sam Cooke, Fats Domino, The Everly Brothers, Buddy Holly, Jerry Lee Lewis, Little Richard y Elvis Presley.
También han sido incluidos Led Zeppelin, Madonna, ABBA, Donna Summer, The Beatles, Quincy Jones, Bob Dylan, The Band, Van Halen, Michael Jackson, Pink Floyd, U2, Bee Gees, Queen, The Rolling Stones, AC/DC, Marvin Gaye, Bo Diddley, Dion DiMucci, Martha and the Vandellas, Paul Simon, Percy Sledge, Run–D.M.C., The Stooges, Black Sabbath, The Eagles, The Jimi Hendrix Experience, Neil Young, The Velvet Underground, Paul McCartney, Metallica, Creedence Clearwater Revival, Ramones, Frank Zappa, The Clash, Genesis, The Police, George Harrison, John Lennon, Carlos Santana, Elton John, Aerosmith, The Who, Guns N' Roses, Red Hot Chili Peppers,The Doors,Rush, R.E.M, Heart, Randy Newman, Public Enemy y Sex Pistols.


Sistema Operativo Android


Android

Es un sistema operativo basado en Linux, diseñado principalmente para móviles con pantalla táctil como teléfonos inteligentes o tabletas inicialmente desarrollados por Android, Inc., que Google respaldó financialmente y más tarde compró en2005, Android fue desvelado en 2007 junto la fundación del Open Handset Alliance: un consorcio de compañías de hardware,software y telecomunicaciones para avanzar en los estándares abiertos de los dispositivos móviles. El primer móvil con el sistema operativo Android se vendió en octubre de 2008.






Historia

Fue desarrollado inicialmente por Android Inc., una firma comprada por Google en 2005. Es el principal producto de la Open Handset Alliance, un conglomerado de fabricantes y desarrolladores de hardware, software y operadores de servicio. Las unidades vendidas de teléfonos inteligentes con Android se ubican en el primer puesto en los Estados Unidos, en el segundo y tercer trimestres de 2010, con una cuota de mercado de 43,6% en el tercer trimestre. A nivel mundial alcanzó una cuota de mercado del 50,9% durante el cuarto trimestre de 2011, más del doble que el segundo sistema operativo (iOS de Apple, Inc.) con más cuota.
Tiene una gran comunidad de desarrolladores escribiendo aplicaciones para extender la funcionalidad de los dispositivos. A la fecha, se han sobrepasado las 700.000 aplicaciones (de las cuales, dos tercios son gratuitas) disponibles para la tienda de aplicaciones oficial de Android: Google Play, sin tener en cuenta aplicaciones de otras tiendas no oficiales para Android, como pueden ser la App Store de Amazon o la tienda de aplicaciones Samsung Apps de Samsung.Google Play es la tienda de aplicaciones en línea administrada por Google, aunque existe la posibilidad de obtener software externamente. Los programas están escritos en el lenguaje de programación Java.22 No obstante, no es un sistema operativo libre de malware, aunque la mayoría de ello es descargado de sitios de terceros.
El anuncio del sistema Android se realizó el 5 de noviembre de 2007 junto con la creación de la Open Handset Alliance, un consorcio de 78 compañías de hardware, software y telecomunicaciones dedicadas al desarrollo de estándares abiertos para dispositivos móviles.Google liberó la mayoría del código de Android bajo la licencia Apache, una licencia libre y de código abierto.
La estructura del sistema operativo Android se compone de aplicaciones que se ejecutan en un framework Java de aplicaciones orientadas a objetos sobre el núcleo de las bibliotecas de Java en una máquina virtual Dalvik con compilación en tiempo de ejecución. Las bibliotecas escritas en lenguaje C incluyen un administrador de interfaz gráfica (surface manager), un framework OpenCore, una base de datos relacional SQLite, una Interfaz de programación de API gráfica OpenGL ES 2.0 3D, un motor de renderizado WebKit, un motor gráfico SGL, SSL y una biblioteca estándar de C Bionic. El sistema operativo está compuesto por 12 millones de líneas de código, incluyendo 3 millones de líneas de XML, 2,8 millones de líneas de lenguaje C, 2,1 millones de líneas de Java y 1,75 millones de líneas de C++.



Adquisición por parte de Google


En julio de 2006, Google adquirió Android Inc., una pequeña compañía de Palo Alto, California fundada en 2003.11 Entre los cofundadores de Android que se fueron a trabajar a Google están Andy Rubin (co-fundador de Danger), Rich Miner (co-fundador de Wildfire Communications, Inc.), Nick Sears (alguna vez VP en T-Mobile), y Chris White (quien encabezó el diseño y el desarrollo de la interfaz en WebTV). En aquel entonces, poco se sabía de las funciones de Android Inc. fuera de que desarrollaban software para teléfonos móviles. Esto dio pie a rumores de que Google estaba planeando entrar en el mercado de los teléfonos móviles.
En Google, el equipo liderado por Rubin desarrolló una plataforma para dispositivos móviles basada en el núcleo Linux que fue promocionado a fabricantes de dispositivos y operadores con la promesa de proveer un sistema flexible y actualizable. Se informó que Google había alineado ya una serie de fabricantes de hardware y software y señaló a los operadores que estaba abierto a diversos grados de cooperación por su parte.
La especulación sobre que el sistema Android de Google entraría en el mercado de la telefonía móvil se incrementó en diciembre de 2006.35 Reportes de BBC y The Wall Street Journal señalaron que Google quería sus servicios de búsqueda y aplicaciones en teléfonos móviles y estaba muy empeñado en ello. Medios impresos y en línea pronto reportaron que Google estaba desarrollando un teléfono con su marca.
En septiembre de 2007, «InformationWeek» difundió un estudio de Evalueserve que reportaba que Google había solicitado diversas patentes en el área de la telefonía móvil.

jueves, 14 de febrero de 2013

Vídeo Juegos


La historia de los videojuegos
Tiene su origen en la década de 1940 cuando, tras el fin de la Segunda Guerra Mundial, las potencias vencedoras construyeron las primeras supercomputadoras programables como el ENIAC, de 1946.nota 1 Los primeros intentos por implementar programas de carácter lúdico (inicialmente programas de ajedrez) no tardaron en aparecer, y se fueron repitiendo durante las siguientes décadas.

Los primeros videojuegos modernos aparecieron en la década de los 60, y desde entonces el mundo de los videojuegos no ha cesado de crecer y desarrollarse con el único límite que le ha impuesto la creatividad de los desarrolladores y la evolución de la tecnología.

En los últimos años, se asiste a una era de progreso tecnológico dominada por una industria que promueve un modelo de consumo rápido donde las nuevas superproducciones quedan obsoletas en pocos meses, pero donde a la vez un grupo de personas e instituciones -conscientes del papel que los programas pioneros, las compañías que definieron el mercado y los grandes visionarios tuvieron en el desarrollo de dicha industria- han iniciado el estudio formal de la historia de los videojuegos.

El más inmediato reflejo de la popularidad que ha alcanzado el mundo de los videojuegos en las sociedades contemporáneas lo constituye una industria que da empleo a 120 000 personas y que genera unos beneficios multimillonarios que se incrementan año tras año.
El impacto que supuso la aparición del mundo de los videojuegos significó una revolución cuyas implicaciones sociales, psicológicas y culturales constituyen el objeto de estudio de toda una nueva generación de investigadores sociales que están abordando el nuevo fenómeno desde una perspectiva interdisciplinar, haciendo uso de metodologías de investigación tan diversas como las específicas de la antropología cultural, la inteligencia artificial, la teoría de la comunicación, la economía o la estética, entre otras.
Al igual que ocurriera con el cine y la televisión, el videojuego ha logrado alcanzar en apenas medio siglo de historia el estatus de medio artístico, y semejante logro no ha tenido lugar sin una transformación y evolución constante del concepto mismo de videojuego y de su aceptación. Nacido como un experimento en el ámbito académico, logró establecerse como un producto de consumo de masas en tan sólo diez años, ejerciendo un formidable impacto en las nuevas generaciones que veían los videojuegos con un novedoso medio audiovisual que les permitiría protagonizar en adelante sus propias historias.

Consolas "primitivas"
En 1950 el 90% de los hogares norteamericanos disponían de al menos un aparato de televisión, una cifra que contrastaba fuertemente con el 9% de la década anterior. Era natural que diversas personas relacionadas con ese mundo comenzasen a preguntarse si era posible usar esos aparatos para otra cosa que no fuese la simple recepción de programas.
Ya en 1947 la compañía Dumont había explorado la idea de permitir a los espectadores jugar con sus aparatos de televisión; Thomas Goldsmith y Estle Mann, dos de sus empleados, patentaron su tubo de rayos catódicos, un aparato basado en un simple circuito eléctrico que permitía a los espectadores disparar misiles hacia un objetivo, pero que no llegó a comercializarse jamás.

Pocos años más tarde un ingeniero de origen alemán que acabaría siendo considerado por muchos como el verdadero "padre de los videojuegos domésticos"
Tuvo una visión que resultaría crucial en el desarrollo posterior de la industria de los juegos electrónicos: en 1951 Ralph Baer trabajaba como técnico de televisión y, junto a algunos colegas, había recibido el encargo de construir un receptor desde cero. Para comprobar los equipos usaban instrumentos que dibujaban líneas y patrones de colores que los técnicos podían mover a través de la pantalla para ajustarla, y a partir de esa idea Baer se planteó la posibilidad de construir aparatos de televisión que permitiesen algo más que la simple recepción de los programas. Sin embargo el ingeniero mantuvo apartada su idea hasta algunos años más tarde, cuando presentó al mercado su Magnavox Odyssey, la primera consola de videojuegos doméstica de la historia.



Primeras controversias, nuevas tecnologías y otras innovaciones
Un microprocesador Intel 4004.
En 1971 Intel había sacado al mercado el primer microprocesador de propósito general de la historia, su modelo Intel 4004 diseñado originalmente para una calculadora de sobremesa.En 1974 Jeff Frederiksen de Nutting Associates diseñó un nuevo prototipo de pinball adaptando un 4004 a una máquina de Bally,32 y su prototipo salió al mercado al año siguiente con el nombre de "Spirit of 76", la primera máquina recreativa de la historia que incoporaba tecnología digital.33 Todos los videojuegos de la época usaban circuitería TTL, lo que significaba que cualquier cambio que se quisiese introducir en el diseño requería la manipulación física del hardware, usualmente soldando y resoldando los circuitos, y la tecnología del microprocesador eliminaba este inconveniente, de modo que resultaba natural que los diseñadores de videojuegos la adoptasen en cuanto tuvieron noticia de ella. La nueva tecnología permitía nuevas posibilidades en la programación de videojuegos, expandiendo las posibilidades gráficas y la jugabilidad mucho más allá de lo que permitía la tecnología TTL, pero sustituía la figura del ingeniero por la del programador como creador de los mismos, una noción a la que los fabricantes tuvieron que adaptarse34 A mediados de 1975 sale al mercado Gun Fight, un arcade de Bally Midway que se inspiraba en un título de Taitonota 21 y que incorporaba por primera vez en la historia un microprocesador. El juego innovó además en otros sentidos, pues por primera vez se podía ver en la pantalla a dos figuras humanas combatiendo entre sí -inaugurando el género de lucha- y porque introducía asimismo la noción de controles separados para el movimiento y para la dirección.Los últimos títulos que utilizaban tecnología TTL salieron al mercado en 1976: Breakout de Atari y Death Race de Exidy.
Fue Steve Jobs, quien posteriormente sería presidente de Apple Computer, quien se encargó originalmente de la primera versión de Breakout. Bushnell había dicho a sus trabajadores que pagaría $100 por cada chip que se lograse eliminar de las placas de sus juegos, y Jobs aceptó el reto. Presentó la tarea a su amigo Steve Wozniak, quien logró reducir el número de chips necesarios a 42. 
Sin embargo, de los $5000 que obtuvo Jobs por este trabajo, sólo ofreció 350 a Wozniak, diciéndole que le habían pagado tan sólo 700. A la postre, el esfuerzo de Wozniak resultó en vano, pues su diseño no pudo ser reproducido en los laboratorios de Atari, y Al Alcorn, jefe técnico de la compañía, asignó el proyecto a otro ingeniero que terminó utilizando 100 chips en su diseño. El juego, terminado en abril de 1976, obtuvo un éxito inmediato, y ha sido portado a prácticamente todos los sistemas de videojuegos desde entonces, generando infinidad de imitaciones.


Death Race, lanzado en enero de 1976 se basaba en un juego anterior de la compañía, Destruction Derby de 1975. La idea consistía en conducir un coche atropellando el mayor número posible de "zombies", pero la violencia explícita del juegonota 27 no tardó en generar una importante polémica, poniendo por primera vez sobre la mesa la cuestión de hasta qué punto este tipo de videojuegos podría afectar negativamente a los usuarios de corta edad. Ante las crecientes protestas, Exidy no tardó en retirar algunas de sus máquinas del mercado, pero los pedidos, en realidad se incrementaron. El juego es considerado por muchos como el primer videojuego polémico de la historia.
Por su parte Night Driver de Atari, lanzado en 1976 y programado por Dave Sheppard, muestra un aspecto muy semejante a los modernos juegos de carreras, además de contar con una innovadora cabina con la que se pretendía simular la sensación real de estar conduciendo un coche.

Una nueva generación de máquinas
Desde mediados de la década de 1990 la industria de las máquinas recreativas estaba en crisis. Este tipo de aparatos siempre había basado su éxito en el hecho de disponer de una tecnología y una potencia audiovisual muy por encima de las capacidades de los micro-ordenadores personales y de las consolas domésticas. La Neo-Geo de SNK permitía al jugador disfrutar en su casa de la misma tecnología que exhibían las máquinas de los salones recreativos, pero era una consola muy cara sólo al alcance de unos pocos. El éxito de la Playstation y las consolas de su generación (Nintendo 64 y Sega Saturn) desequilibró definitivamente esta situación, pues las nuevas máquinas domésticas igualaban e incluso superaban tecnológicamente a la mayoría de recreativas. Por otro lado el rápido crecimiento del sector de la telefonía móvil, con aparatos cada vez más potentes que permitían ejecutar videojuegos de creciente complejidad, sentenció definitivamente las máquinas que habían protagonizado el inicio de la revolución de los videojuegos obligando a los dueños de los salones recreativos a reorientar su modelo de negocio.
En 2000 Sony lanzó la anticipada PlayStation, un aparato de 128 bits que se convertiría en la videoconsola más vendida de la historia, mientras que Microsoft hizo su entrada en la industria un año más tarde con su X-Box, una máquina de características similares que sin embargo no logró igualar su éxito.105 De 2001 fue también la GameCube, una nueva apuesta de Nintendo que no consiguió atraer al público adulto y cuyo fracaso comercial supuso un replanteamiento de la estrategia comercial de la compañía nipona que, a partir de ese momento, dirigió su atención al mercado de las handhelds. Gameboy Advance, de 2001 fue su primera tentativa en ese terreno, pero el verdadero éxito con el que Nintendo reconquistará parte del mercado perdido tardará aún en aparecer. En 2003 aparece el Nokia N-Gage, primera incursión de la compañía finlandesa en el campo de las videoconsolas.

Mientras tanto, el mercado de los PC seguía dominado por esquemas de juego que ya habían hecho su aparición con anterioridad. Triunfaban los videojuegos de estrategia en tiempo real (Warcraft, Age of Empires) y los juegos de acción en línea (Call of Duty, Battlefield 1942) En 2004 salió al mercado la Nintendo DS, primer producto de la nueva estrategia de una compañía que había renunciado al mercado de las videoconsolas clásicas, y poco después apareció la Sony PSP, una consola similar que no llegó a alcanzar a la primera en cifras de ventas. En 2005 Microsoft lanzó su Xbox 360, un modelo mejorado de su primera consola diseñado para competir con la Playstation.  La respuesta de Sony no se hizo esperar, y pocos meses después lanzó su Playstation 3, una consola que inicialmente no consiguió el éxito esperado. La revolución de Nintendo tuvo lugar en abril de 2006 cuando presentó su Wii, una máquina que con su innovador sistema de control por movimiento y sus sencillos juegos puso de nuevo a su compañía creadora en el lugar que le correspondía dentro de la historia de los videojuegos.

Redes Neuronales Artificiales


Redes Neuronales Artificiales
Denominadas habitualmente como RNA o en inglés como: "ANN"1 son un paradigma de aprendizaje y procesamiento automático inspirado en la forma en que funciona el sistema de los animales. Se trata de un sistema de interconexión de neuronas que colaboran entre sí para producir un estímulo de salida. En inteligencia artificial es frecuente referirse a ellas como redes de neuronas o redes neuronales.



Historia
Los primeros modelos de redes neuronales datan de 1943 por los neurólogos McCulloch y Pitts. Años más tarde, en 1949, Donald Hebb desarrolló sus ideas sobre el aprendizaje neuronal, quedando reflejado en la "regla de Hebb". En 1958, Rosemblatt desarrolló el perceptrón simple, y en 1960, Widrow y Hoff desarrollaron el ADALINE, que fue la primera aplicación industrial real.
En los años siguientes, se redujo la investigación, debido a la falta de modelos de aprendizaje y el estudio de Minsky y Papert sobre las limitaciones del perceptrón. Sin embargo, en los años 80, volvieron a resurgir las RNA gracias al desarrollo de la red de Hopfield, y en especial, al algoritmo de aprendizaje de retro propagación ideado por Rumelhart y McLellan en 1986 que fue aplicado en el desarrollo de los perceptrones multicapa. 


Diseño y programación de una RNA (red neuronal artificial)
Con un paradigma convencional de programación en ingeniería del software, el objetivo del programador es modelar matemáticamente (con distintos grados de formalismo) el problema en cuestión y posteriormente formular una solución (programa) mediante un algoritmo codificado que tenga una serie de propiedades que permitan resolver dicho problema. En contraposición, la aproximación basada en las RNA parte de un conjunto de datos de entrada suficientemente significativo y el objetivo es conseguir que la red aprenda automáticamente las propiedades deseadas. En este sentido, el diseño de la red tiene menos que ver con cuestiones como los flujos de datos y la detección de condiciones, y más que ver con cuestiones tales como la selección del modelo de red, la de las variables a incorporar y el pre-procesamiento de la información que formará el conjunto de entrenamiento. Asimismo, el proceso por el que los parámetros de la red se adecuan a la resolución de cada problema no se denomina genéricamente programación sino que se suele denominar entrenamiento neuronal.
Por ejemplo en una red que se va a aplicar al diagnóstico de imágenes médicas; durante la fase de entrenamiento el sistema recibe imágenes de tejidos que se sabe son cancerígenos y tejidos que se sabe son sanos, así como las respectivas clasificaciones de dichas imágenes. Si el entrenamiento es el adecuado, una vez concluido, el sistema podrá recibir imágenes de tejidos no clasificados y obtener su clasificación sano/no sano con un buen grado de seguridad. Las variables de entrada pueden ser desde los puntos individuales de cada imagen hasta un vector de características de las mismas que se puedan incorporar al sistema (por ejemplo, procedencia anatómica del tejido de la imagen o la edad del paciente al que se le extrajo la muestra).

 Estructura
La mayoría de los científicos coinciden en que una RNA es muy diferente en términos de estructura de un cerebro animal. Al igual que el cerebro, una RNA se compone de un conjunto masiva mente paralelo de unidades de proceso muy simples y es en las conexiones entre estas unidades donde reside la inteligencia de la red. Sin embargo, en términos de escala, un cerebro es muchísimo mayor que cualquier RNA creada hasta la actualidad, y las neuronas artificiales también son más simples que su contrapartida animal.
Biológica mente, un cerebro aprende mediante la reorganización de las conexiones sinápticas entre las neuronas que lo componen. De la misma manera, las RNA tienen un gran número de procesadores virtuales interconectados que de forma simplificada simulan la funcionalidad de las neuronas biológicas. En esta simulación, la reorganización de las conexiones sinápticas biológicas se modela mediante un mecanismo de pesos, que son ajustados durante la fase de aprendizaje. En una RNA entrenada, el conjunto de los pesos determina el conocimiento de esa RNA y tiene la propiedad de resolver el problema para el que la RNA ha sido entrenada.

Por otra parte, en una RNA, además de los pesos y las conexiones, cada neurona tiene asociada una función matemática denominada función de transferencia. Dicha función genera la señal de salida de la neurona a partir de las señales de entrada. La entrada de la función es la suma de todas las señales de entrada por el peso asociado a la conexión de entrada de la señal. Algunos ejemplos de entradas son la función escalón de Heaviside, la lineal o mixta, la sigmoide y la función gaussiana, recordando que la función de transferencia es la relación entre la señal de salida y la entrada.

Todo acerca de Redes neuronales Artificiales