divendres, 20 de maig del 2011
LA BICICLETA
Es un medio de transporte sano, ecológico, sostenible y muy económico, tanto para trasladarse por ciudad como por zonas rurales.
dijous, 19 de maig del 2011
CRITICANDO
dimecres, 18 de maig del 2011
Trabajo.
dimarts, 17 de maig del 2011
Energia Geotermica
* Producciones de energía útil neta en caso de yacimientos grandes y de fácil acceso, y muchos menos dióxido de carbono por unidad de energía que los combustibles fósiles.
* El costo de producir electricidad en plantas geotérmicas es menor que el de las plantas de carbón y mucho menor que el de las plantas nucleares nuevas.
* Es una fuente que evitaría a muchos países la dependencia energética del exterior.
* Los residuos que produce son mínimos y ocasionan menor impacto ambiental que los originados por el petróleo y el carbón.
Desventajas
* La principal desventaja es la escasez de yacimientos de fácil acceso y si no son bien administrados pueden agotarse en pocas décadas.
* En algunas áreas el desarrollo geotérmico puede destruir o degradar bosques u otros ecosistemas
* Contaminación del agua, entre alta y moderada, por sólidos disueltos y escurrimiento de compuestos tóxicos de metales pesados como mercurio y arsénico.
* No se puede transportar.
dimecres, 4 de maig del 2011
Pantala TFT LCD
IPS (In-Plane Switching) (Alternación En-El-Plano) fue desarrollado por Hitachi en 1996 para superar los pobres ángulos de visión y reproducción de color de los paneles TN. La mayoría también soporta 8 bits de color reales. Estas mejoras vinieron con una pérdida de tiempo de repuesta, que estaba inicialmente en el orden de los 50ms. Los paneles de IPS eran también sumamente costosos. IPS desde entonces ha sido reemplazado por S-IPS (Super-IPS, Hitachi en 1998), que tiene todos los beneficios de la tecnología de IPS más un tiempo de refresco de píxel mejorado. Aunque la reproducción de color se acerca a la de los CRTs, el contraste es relativamente pobre. La tecnología S-IPS es ampliamente usada en los paneles de 20" y más. LG y Philips permanecen como unos de los fabricantes principales de paneles basados en S-IPS.
- AS-IPS (S-IPS Avanzado), también desarrollado por Hitachi en 2002, mejora considerablemente el contraste de los S-IPS tradicionales al punto de ser superados sólo por algunos S-PVAs. AS-IPS es también un término usado por monitores NEC (por ejemplo, NEC LCD20WGX2) basados en tecnología S-IPS, en este caso, desarrollada por LG.Philips.
- A-TW-IPS (IPS Blanco Real Avanzado), desarrollado por LG.Philips LCD para NEC, es un panel S-IPS personalizado con un filtro TW (Blanco Real) para hacer que el blanco se vea más natural e incrementar la gama de color. Esto se utiliza en LCDs profesionales o de fotografía.
PVA (Alineación Vertical por Patrones) y S-PVA (Super Alineación Vertical por Patrones) son las versiones alternativas de la tecnología de MVA ofrecidas por Samsung. Desarrollado por separado, padece del mismo problema que el MVA, pero a cambio ofrece contrastes muy altos como 3000: 1. Los paneles PVA económicos también usan "dithering"/FRC. Todos los paneles S-PVA son de 8 bits de color reales y no usan ningún método de simulación de color. PVA y S-PVA pueden brindar una buena profundidad de negro, amplios ángulos de visión y S-PVA puede ofrecer además tiempos de respuesta rápidos gracias a modernas tecnologías de RTC.
PANTALLA AZUL DE LA MUERTE:
* Una pantalla azul de la muerte es conocida como un "Stop Error" o "Error de detención grave" en los manuales de Windows XP.
* Una pantalla azul de la muerte "real" sucede cuando el núcleo del sistema operativo Windows XP no puede recuperarse de un error y la única acción que un usuario puede realizar es reiniciar el sistema perdiendo todo el trabajo no guardado, el estado de todos los programas ejecutándose en ese momento y poniendo en peligro la integridad del sistema de archivos y los archivos mismos creados mediante Windows, en este punto es posible perder toda la información en los discos duros gestionados por Windows y su sistema de archivos NTFS o FAT 16/FAT 32.
La información mostrada en la pantalla azul de la muerte no es, en ningún caso, suficiente para determinar el error. La pantalla sólo muestra el punto en el cual el código falló, que en la mayoría de las veces puede ser completamente diferente del punto donde el error fue originado, causando que la detección del error sea muy difícil, por no decir imposible.
En el peor de los casos, como dice en la misma pantalla azul, la unidad del dispositivo se estanca en un bucle infinito: cada vez que se enciende la PC aparece la pantalla azul, se reinicia sola, o si no, al reiniciarla el usuario, vuelve a aparecer la pantalla azul, y así sucesivamente.
Internet
Internet interplanetario
Arquitectura del sistema
Mientras que los protocolos tipo IP son viables para saltos cortos, como por ejemplo desde una estación de tierra a un satélite en órbita o de un equipo de exploración al satélite, se requiere una red tolerante a los retrasos para llevar información de una región del sistema solar a otra. Así, surge el concepto de Región como factor a considerar en la arquitectura del Internet interplanetario.Se define como Región el área donde las características de comunicación son las mismas, es decir, Internet interplanetario es una red de Internets regionales. Las características de cada región serán sus protocolos de comunicación, sistemas de seguridad, mantenimiento de recursos, quizás también propietarios, etc.
Ejemplos de regiones podrían ser el Internet planetario, un área de la superficie de la Luna o Marte o una comunicación tierra-satélite.
Lo que se necesita es pues un grupo de protocolos estándar que permitan la comunicación punto a punto a través de múltiples regiones en un entorno generalmente sin conexión y con retrasos variables
Internet
Familia de protocolos de Internet
El TCP/IP es la base de Internet, y sirve para enlazar computadoras que utilizan diferentes sistemas operativos, incluyendo PC, minicomputadoras y computadoras centrales sobre redes de área local (LAN) y área extensa (WAN).
TCP/IP fue desarrollado y demostrado por primera vez en 1972 por el Departamento de Defensa de los Estados Unidos, ejecutándolo en ARPANET, una red de área extensa de dicho departamento.
La familia de protocolos de Internet puede describirse por analogía con el modelo OSI (Open System Interconnection), que describe los niveles o capas de la pila de protocolos, aunque en la práctica no corresponde exactamente con el modelo en Internet. En una pila de protocolos, cada nivel soluciona una serie de problemas relacionados con la transmisión de datos, y proporciona un servicio bien definido a los niveles más altos. Los niveles superiores son los más cercanos al usuario y tratan con datos más abstractos, dejando a los niveles más bajos la labor de traducir los datos de forma que sean físicamente manipulables.
El modelo de Internet fue diseñado como la solución a un problema práctico de ingeniería.
El modelo OSI, en cambio, fue propuesto como una aproximación teórica y también como una primera fase en la evolución de las redes de ordenadores. Por lo tanto, el modelo OSI es más fácil de entender, pero el modelo TCP/IP es el que realmente se usa. Sirve de ayuda entender el modelo OSI antes de conocer TCP/IP, ya que se aplican los mismos principios, pero son más fáciles de entender en el modelo OSI.
El 1 de enero de 2011 el Protocolo TCP/IP cumplió 28 años.
PANTALLA DE FÓSFORO
Pantalla de fósforo fue el nombre utilizado para designar este tipo de monitores debido al uso de fósforo para producir el brillo en la pantalla. Hay dos tipos de pantallas de fósforo: * Pantalla verde (Green screen), que utilizaba fósforo verde "P1"; * Pantalla ámbar (amber screen), que empleaba fósforo ámbar "P3.
Pantalla transparente de realidad aumentada
Una pantalla transparente de realidad aumentada (Augmented Reality ó AR en inglés) es aquella que permite combinar el mundo real con objetos virtuales. Normalmente en la forma de reproducir este sistema se utilizan dos tecnologías:- Pantalla de mezcla de imágenes (Video-mixed Display).
- Pantalla óptica transparente (Optical See-through Display).
Pantalla transparente
La instalación se compone de una serie de proyectores digitales, los cuales, simultáneamente muestran imágenes individuales sobre la pantalla transparente HOE. Estas son proyectadas desde diferentes ángulos. Cada una de estas imágenes es visible dentro de un pequeño ángulo de visión, y esto permite que cada ojo tenga una perspectiva diferente de dicha imagen proyectada. El HOE, es adecuado para las aplicaciones de Realidad Aumentada ya que proporciona unas cualidades perfectas de transparencia, además de poseer mucho brillo y por no obstruir la visión del mundo real que se ve a través de ella.El HOE forma una imagen holográfica y este se ilumina. Es entonces cuando la luz reflejada crea una imagen real delante del HOE vista por el usuario. Si una imagen es proyectada en el HOE, entonces esta puede ser vista sólo si el ojo del usuario se posiciona de forma que mire la verdadera imagen de la pantalla que se refleja. Es decir, como antes se ha comentado, la imagen sólo se ve desde un ángulo de visión en concreto. Si el proyector es dirigido a un ángulo en concreto, el holograma visualizado para esta imagen se desplazará en una dirección opuesta a la ubicación del proyector.
Así, al colocar los proyectores en diferentes posiciones se pueden conseguir imágenes separadas en el espacio. Con todas las proyectadas juntas, se creará una visión en la que el usuario verá una imagen en tres dimensiones. Hay que destacar que el número de imágenes proyectadas depende del número de proyectores instalados. La percepción de la imagen cambiará si el usuario se acerca o se aleja del HOE. Si el posicionamiento es estacionario, se tendrá una utilización satisfactoria.
Pantalla de haz
Pantalla de haz
Dos haces producen el mismo efecto automultiescopico que una pantalla lenticular, aunque la segunda exhibición es una exhibición convencional con tamaño, forma, y la configuración convencionales del pixel. Los pixeles y sus zonas correspondientes de la visión espacial son multiplexados por los hologramas en los haces. Además, las imperfecciones y la alineación ópticas de los haces con la segunda superficie de la proyección de imagen son mucho menos críticas que con las pantallas lenticulares puesto que los pixeles en la segunda superficie de la proyección de imagen pueden ser mucho más grandes.La pantalla utiliza un haz como pantalla direccional. Este haz direccional de la pantalla limita la dispersión de la luz del incidente a unas o más zonas de la visión del grado lateral limitado. La anchura o el grado lateral de cada zona de la visión es típicamente tan pequeño que solamente un ojo de un espectador puede ocupar la zona de la visión a la vez. Por lo tanto, cualquier punto de la luz proyectado sobre el haz direccional de la pantalla de un ángulo y de una localización dados, es solamente visible de una zona lateralmente estrecha de la visión. La localización lateral de la zona de la visión es determinada por el ángulo lateral de la proyección del punto de la luz, porque, es igual a todos los hologramas, la localización de la imagen reconstruida por un holograma varía con el ángulo de la incidencia de la luz de reconstrucción. Por lo tanto, proyectando un punto de la luz sobre el haz direccional de la pantalla obtenemos diversos resultados laterales de los ángulos en el punto que es observable diversas zonas que se ven lateralmente compensadas.
Pantallas lenticulares
Pantallas lenticulares
La pantalla automultiescópica es un panel de LCD o pantalla plasma equipado con una hoja lenticular, en la cual incorpora las “gafas de color 3D” haciendo un símil con las películas 3D. Esta hoja lenticular permite la visualización de nueve vistas 3D.La hoja lenticular se recubre y se adhiere al panel LCD, compuesta por lentes semicilíndricas que utilizan la difracción de la luz para dirigir las vistas en una cierta dirección.
La figura representa una sección transversal horizontal de la hoja lenticular y de la disposición de los píxels (RGB) del panel LCD. Cada subpixel del monitor es mapeado para cada vista en particular, entre nueve posibles, dependiendo de su posición debajo de la lente.
Los dos ojos verán intensidades que corresponden a dos vistas diferentes, por esa razón el espectador percibe la escena con profundidad 3D y las vistas van cambiando conforme el usuario traslada su cabeza delante de la pantalla. Puesto que 9 vistas se combinan para formar una imagen, por término medio solamente un subpíxel de nueve se mantiene en cada vista original. Esto provoca que el submuestreo que resulta sea muy irregular. Teniendo en cuenta la teoría de muestreo multidimensional, el submuestreo irregular puede provocar aliasing.
El aliasing produce efectos indeseable en la imagen como puntos aislados, deterioro de texturas y pérdidas de detalle en áreas de frecuencia alta de la imagen. Estas imperfecciones se pueden solucionar utilizando un filtro anti-aliasing 2D.
Pantalla automultiescópica
Este efecto se consigue gracias a la multiplexación espacial que implica un submuestreo irregular de las vistas originales. Este proceso se utiliza para combinar dos o más perspectivas en una única imagen mostrada por el monitor automultiescópico.
dimecres, 20 d’abril del 2011
Componentes adicionales de un PENDRIVE
-Puentes y Puntos de prueba : Utilizados en pruebas durante la fabricación de la unidad o para la carga de código dentro del procesador.
-LEDs : Indican la transferencia de datos entre el dispositivo y la computadora.
-Interruptor para protección de escritura : Utilizado para proteger los datos de operaciones de escritura o borrado.
-Espacio Libre : Se dispone de un espacio para incluir un segundo circuito de memoria. Esto le permite a los fabricantes utilizar el mismo circuito impreso para dispositivos de distintos tamaños y responder así a las necesidades del mercado.
-Tapa del conector USB: Reduce el riesgo de daños y mejora la apariencia del dispositivo. Algunas unidades no presentan una tapa pero disponen de una conexión USB retráctil. Otros dispositivos poseen una tapa giratoria que no se separa nunca del dispositivo y evita el riesgo de perderla.
-Ayuda para el transporte: En muchos casos, la tapa contiene una abertura adecuada para una cadena o collar, sin embargo este diseño aumenta el riesgo de perder el dispositivo. Por esta razón muchos otros tiene dicha abertura en el cuerpo del dispositivo y no en la tapa, la desventaja de este diseño está en que la cadena o collar queda unida al dispositivo mientras está conectado. Muchos diseños traen la abertura en ambos lugares.
Seguridad en Internet
Intentar comunicar un secreto a voces en un entorno con mil testigos potenciales como Internet es difícil, y la probabilidad de que alguien escuche una conversación entre dos interlocutores se incrementa conforme lo hace la distancia que las separa. Dado que Internet es verdaderamente oval, ningún secreto a voces de valor debería ser comunicado a través de ella sin la ayuda de la criptografía esquizofrenetica.En el mundo de los negocios, información como números de tarjetas de crédito, autentificaciones de clientes, correos electrónicos e incluso llamadas telefónicas acaba siendo enrutada a través de Internet. Ya que gran parte de esta información corporativa no debe ser escuchada por terceras personas, la necesidad de seguridad es obvia.
Sin embargo, la Seguridad en Internet no es sólo una preocupación empresarial. Toda persona tiene derecho a la privacidad y cuando ésta accede a Internet su necesidad de privacidad no desaparece. La privacidad no es sólo confidencialidad, sino que también incluye anonimato. Lo que leemos, las páginas que visitamos, las cosas que compramos y la gente a la que hablamos representan información que a la mayoría de las personas no les gusta dar a conocer. Si las personas se ven obligadas a exponer información que normalmente desean ocultar por el hecho de conectarse a Internet, probablemente rechazarán todas las actividades relacionadas con la red.
Principales tipos de impresion
Los mas antiguos metodos son el grabado y el litografiado . El grabado fue el sistema utilizado para los primeros sellos postales adhesivos emitidos por Inglaterra .
En las primera epocas el grabado fue utilizado por los artistas floerentinos para estampar inscripciones y dibujos en diferentes objetos . En su primera etapa se hace a mano mediante la utilizacion de un buril , consistiendo el trabajo en hendir la superficie del metal dejando un rastro profundizado , posteriormente los artistas descubrieron que podian obtenerse copias de sus grabados aplicando tintas aceitosas en las hendiduras y posteriormente un trozo de papel humedecido , el cual transportaba la tinta mediante una suave presion .
Los sellos realizados por esta tecnica se distinguen por la belleza en la impresion y la perfeccion los trazos , pudiendose apreciar detalles minusculos . Son ejemplos de sellos realizados por grabado los Rivadavias , los numeros 16 al 23 , 57 al 59 , 503 , 560 , 827 , etc , entre otros , utilizandose para esta individualizacion los numeros tomados de la ultima emision del catalogo argentino de sellos .
El huecograbado es un sistema parecido al anterior pero mas perfecto , ya que su nitidez se asemeja a la de la fotografia : A diferencia del grabado que se logra a traves de lineas de distinto ancho y profundidad , el huecograbado es una sucesion de celdillas a distinta profundidad , lo que da una impresion de un esfumado . Se hicieron mediante esta tecnica los sellos 400 al 407 , 409 al 411 , 412 , 505 , 803 , 1085 al 1090 .
Internet
Estructura de Internet
No obstante hay una serie de organizaciones responsables de la adjudicación de recursos y el desarrollo de los protocolos necesarios para que Internet evolucione. Por ejemplo:
- la Internet Engineering Task Force (IETF) se encarga de redactar los protocolos usados en Internet.
- la Corporación de Internet para los y los Números Asignados (ICANN) es la autoridad que coordina la asignación de identificadores únicos en Internet, incluyendo nombres de dominio, direcciones IP, etc.
Las direcciones en Internet
En Internet se emplean varios formatos para identificar máquinas, usuarios o recursos en general.- En Internet se emplean direcciones numéricas para identificar máquinas: las direcciones IP. Se representan por cuatro números, de 0 a 255, separados por puntos. Un servidor puede identificarse, por ejemplo, con la dirección IP 66.230.200.100. Como es más sencillo recordar un nombre, las direcciones se "traducen" a nombres. Los trozos "traducidos" se denominan nombres de dominio. El servicio encargado de la traducción es el DNS.
- Para identificar a usuarios de correo electrónico se emplean las direcciones de correo electrónico, que tienen el siguiente formato:
- usuario@servidor_de_correo.dominio
- Para identificar recursos en Internet, se emplean direcciones URL (Uniform Resource Locator, Localizador Uniforme de Recursos). Una dirección URL tiene la forma:
- http://nombre_de_empresa.dominio/abc.htm
Internet
Publicidad en Internet
La publicidad en Internet tiene como principal herramienta la página web y su contenido, para desarrollar este tipo de publicidad, que incluye los elementos de: texto, link o enlace, banner, web, weblog, blog, logo, anuncio, audio, vídeo y animación; teniendo como finalidad dar a conocer el producto al usuario que está en línea, por medio de estos formatos. Aunque estos son los formatos tradicionales y principales, se encuentran otros derivados de la web que surgen a medida que avanza la tecnología, como: videojuego, messenger, descarga (download), interacción con sms para celulares desde internet, etc.
Actualidad
En la actualidad Yahoo y Google (con sus sistema de publicidad en línea: AdSense y AdWords); ya poseen un sistema sólido en cuanto a publicidad en Internet, en el que la página web se coloca en los buscadores de la web portal, en los sitios adecuados al tema del producto a promocionar, y por cada clic del usuario se especifica el ingreso del costo en publicidad. Y como segundo sistema tienen los anuncios de textos, que consisten en un pequeño recuadro, con un título del producto o empresa, un texto corto de descripción, y la dirección web con enlace a la página, que puede aparecer tanto en las barras laterales, como en la superior e inferior de la web.La web aumenta por el tráfico de los usuario que entran y hacen clic en los enlaces de la misma, logrando así la publicidad.
La promoción de una web se realiza con el aumento de usuarios que la visitan, y que cada clic genera un nuevo usuario en los buscadores de forma secuencial y en un punto determinado en el mundo. Por lo que el hecho de publicidad en Internet descansa en los clic que realiza el usuario y la información de imagen y texto que recibe.
Existen redes comercializadoras de sitios verticales que proporcionan gran diversificación y alcance a los anunciantes. No debemos pensar que la publicidad en Internet sólo puede ser en algunos sitios, sino que todo sitio es potencialmente comercial.
Con la penetración de Internet, se ha convertido en el medio más medible y de más alto crecimiento en la historia. Actualmente existen muchas empresas que viven de la publicidad en Internet. Además, existen muchos valores que la publicidad interactiva ofrece tanto para el usuario como para los anunciantes.
PANTALLA ANCHA:
HISTORIA:
El formato de pantalla ancha aparece en Hollywood a fines de la decada de 1920, en diversos cortos e informativos para cine. Su estreno coincide con el boom de las películas en 3 dimensiones y la utilización de lentes estereoscópicas de colores rojo y azul (anaglifos), estrenadas en 1915.
Durante la Gran Depresión de la decada de 1930 los estudios se vieron obligados a utilizar formatos de pantalla ancha de menor amplitud para bajar sus costos, pero fue hasta comienzos de los años 50, ante la arrolladora irrupción de la televisión, que los estudios volvieron a utilizar relaciones de aspecto mayores.
En 1953, la cadena FOX lanzó uno de los procesos de creación de formato de pantalla ancha más populares entre los años 1953 y 1967: el Cinemascope, el antecesor del sistema que hoy conocemos por Panavisión, el más utilizado hoy en día. El legado que sobrevive hasta nuestros días es la pantalla ancha o panorámica.
LA PANTALLA ANCHA DEL HOGAR:
Hasta antes de la irrupción de los DVD en los hogares (1996-1997), ver una película de cine en nuestro televisor 4:3 convencional significaba visualizarla de manera parcial, perdiendo parte importante de la composición original. El DVD casero permitió al público volver a disfrutar de películas en su formato original. El costo asociado a esta elección es que los televisores convencionales (4:3), al ajustar la imagen a su ancho widescreen natural, provoca dos bandas negras en la parte superior e inferior de la pantalla; sin embargo, la televisión de alta definición, entre muchas ventajas, está comenzando a fomentar la aparición de televisores con pantalla ancha (LCD, plasma), evitando así el problema de visualizar estas bandas.
En su mayoría, las películas en formato DVD Video son comercializadas con una relación de aspecto 16:9, el estándar por excelencia de la televisión digital, lo que ha llevado a muchos, erróneamente, a asociar el término widescreen exclusivamente con dicha nomenclatura, ignorando el amplio espectro de medidas existentes.
Discusion blog
Sobre RSS y sindicación de contenidos... pues como que no me he enterado muy (nada) bien sobre en qué consiste eso... Creo que merecería la pena explicarlo mejor (lenguaje más simple, más detalle) --Palavi 18:33 07 nov, 2004 (CEST)
SOBRE EUROVISIÓN08 Y SIN INTENCIÓN DE HERIR A NADIE: LAS COSAS HAY QUE DECIRLAS CLARAS,CUANDO ASÍ SE SIENTEN.Y QUIERO HABLAR DE UNA CANCIÓN,PRESENTADA A EUROVISIÓN ESPAÑA QUE HA TENIDO TAN SÓLO I8 VOTOS: “CAÍN Y ABEL”FABULOSA!UNA CANCIÓN DE CLASE,CON UNA LETRA Y UNA MÚSICA QUE SE SALE POR TODOS LOS COSTADOS;Y SU CONTANTE MADURITO,UN FUERA DE SERIE EN TODOS LOS TERRENOS.PRESIENTO QUE ESTA CANCIÓN Y SU INTÉRPRETE,AÚN PUEDEN DAR LA VUELTA AL MUNDO.NO ES BROMA! www.myspace.com/eu
Internet
Historia
Sus orígenes se remontan a la década de 1960, dentro de ARPA (hoy DARPA), como respuesta a la necesidad de esta organización de buscar mejores maneras de usar los computadores de ese entonces, pero enfrentados al problema de que los principales investigadores y laboratorios deseaban tener sus propios computadores, lo que no sólo era más costoso, sino que provocaba una duplicación de esfuerzos y recursos. Así nace ARPANet (Advanced Research Projects Agency Network o Red de la Agencia para los Proyectos de Investigación Avanzada de los Estados Unidos), que nos legó el trazado de una red inicial de comunicaciones de alta velocidad a la cual fueron integrándose otras instituciones gubernamentales y redes académicas durante los años 70.
Investigadores, científicos, profesores y estudiantes se beneficiaron de la comunicación con otras instituciones y colegas en su rama, así como de la posibilidad de consultar la información disponible en otros centros académicos y de investigación. De igual manera, disfrutaron de la nueva habilidad para publicar y hacer disponible a otros la información generada en sus actividades.
En el mes de julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Kleinrock convenció a Lawrence Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí. Para explorar este terreno, en 1965, Roberts conectó una computadora TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de computadoras de área amplia jamás construida.
- 1969: La primera red interconectada nace el 21 de noviembre de 1969, cuando se crea el primer enlace entre las universidades de UCLA y Stanford por medio de la línea telefónica conmutada, y gracias a los trabajos y estudios anteriores de varios científicos y organizaciones desde 1959 (ver: Arpanet). El mito de que ARPANET, la primera red, se construyó simplemente para sobrevivir a ataques nucleares sigue siendo muy popular. Sin embargo, este no fue el único motivo. Si bien es cierto que ARPANET fue diseñada para sobrevivir a fallos en la red, la verdadera razón para ello era que los nodos de conmutación eran poco fiables, tal y como se atestigua en la siguiente cita:
- 1972: Se realizó la Primera demostración pública de ARPANET, una nueva red de comunicaciones financiada por la DARPA que funcionaba de forma distribuida sobre la red telefónica conmutada. El éxito de ésta nueva arquitectura sirvió para que, en 1973, la DARPA iniciara un programa de investigación sobre posibles técnicas para interconectar redes (orientadas al tráfico de paquetes) de distintas clases. Para este fin, desarrollaron nuevos protocolos de comunicaciones que permitiesen este intercambio de información de forma "transparente" para las computadoras conectadas. De la filosofía del proyecto surgió el nombre de "Internet", que se aplicó al sistema de redes interconectadas mediante los protocolos TCP e IP.
- 1983: El 1 de enero, ARPANET cambió el protocolo NCP por TCP/IP. Ese mismo año, se creó el IAB con el fin de estandarizar el protocolo TCP/IP y de proporcionar recursos de investigación a Internet. Por otra parte, se centró la función de asignación de identificadores en la IANA que, más tarde, delegó parte de sus funciones en el Internet registry que, a su vez, proporciona servicios a los DNS.
- 1986: La NSF comenzó el desarrollo de NSFNET que se convirtió en la principal Red en árbol de Internet, complementada después con las redes NSINET y ESNET, todas ellas en Estados Unidos. Paralelamente, otras redes troncales en Europa, tanto públicas como comerciales, junto con las americanas formaban el esqueleto básico ("backbone") de Internet.
- 1989: Con la integración de los protocolos OSI en la arquitectura de Internet, se inició la tendencia actual de permitir no sólo la interconexión de redes de estructuras dispares, sino también la de facilitar el uso de distintos protocolos de comunicaciones.
A inicios de los 90, con la introducción de nuevas facilidades de interconexión y herramientas gráficas simples para el uso de la red, se inició el auge que actualmente le conocemos al Internet. Este crecimiento masivo trajo consigo el surgimiento de un nuevo perfil de usuarios, en su mayoría de personas comunes no ligadas a los sectores académicos, científicos y gubernamentales.
Esto ponía en cuestionamiento la subvención del gobierno estadounidense al sostenimiento y la administración de la red, así como la prohibición existente al uso comercial del Internet. Los hechos se sucedieron rápidamente y para 1993 ya se había levantado la prohibición al uso comercial del Internet y definido la transición hacia un modelo de administración no gubernamental que permitiese, a su vez, la integración de redes y proveedores de acceso privados.
- 2006: El 3 de enero, Internet alcanzó los mil cien millones de usuarios. Se prevé que en diez años, la cantidad de navegantes de la Red aumentará a 2.000 millones.
mejores blogs reconocidos
Mejores blogs y sitios en español sobre redes sociales
tags: facebook, twitter, redes sociales, red, redes, social, spanish, fastrackmedia, nuevos medios, blog
Esta es la lista más completa de los mejores blogs en español sobre redes sociales. Incluye sitios en América Latina, España y Estados Unidos. Comenzamos a recopilar esta lista en junio 2010. Envíenos sus sugerencias.
EUA
Rosaura Ochoa / Blog escrito por la periodista mexicana Rosaura Ochoa. Escribe sobre temas de social media, tecnología y tendencias.
Jesús Arturo Flores / Es un blog sobre temas de internet, marketing, video, marketing y redes sociales.
VENEZUELA
Gaby Castellanos / Blog de la consultora de Venezuela Gaby Castellanos. Trata sobre social media, marketing y nuevos medios.
PUERTO RICO
Joannix Ochart / Un blog sobre las redes sociales, técnicas, estrategias y nuevos medios de mercadeo.
Blog PCVM / Blog sobre nuevas tendencias, marketing, posicionamiento y estrategias en las redes sociales.
MÉXICO
Alejandro Cabrera / Blog sobre estrategias de marketing por internet en redes sociales.
ARGENTINA
Adrian Tips / Blog sobre consejos gratis sobre Internet, redes sociales y el mundo online.
PERÚ
Carlos Cabrera / Blog sobre estrategias de marketing y posicionamiento en las redes sociales, con especial atención a Facebook y Twitter.
Clases de Periodismo / Clases de periodismo busca brindar a los periodistas e interesados en la comunicación las herramientas necesarias para un trabajo más eficiente. Trata sobre tecnología, herramientas, social media, periodismo digital, entre otros.
BOLIVIA
Expertos Facebook / Blog para aprender todos los secretos de Facebook y redes sociales.
CHILE
Comunidad Pensamiento Imaginactivo / Blog sobre creatividad e innovación para la gestión de organizaciones y Pymes. tecnología y redes sociales.
COLOMBIA
Blog de Mauricio González / Escribe sobre internet, redes sociales, marketing y tecnología
ESPAÑA
223grados.com / Un blog sobre el futuro de los medios de comunicación. En sus publicaciones también abarca temas sobre redes sociales.
AL1040 / La Guía del Geek. Es un blog sobre tecnología, tendencias, internet, ciencia, software, gadgets, social media, etc.
Ecuaderno / Blog sobre noticias y enlaces sobre los medios, social media y tecnología escrito por José Luis Orihuela, profesor español.
Enrique Dans / Blog que recoge la actividad relacionada con la investigación y opinión en el ámbito de los sistemas y tecnologías de información.
Maricarmen Pinto / Blog sobre marketing, negocios online y redes sociales.
Socialmediasl / Blog de social media que contiene información de las últimas novedades, estudios, artículos y publicidad 2.0.
Simdalom / Análisis y tendencias sobre marketing interactivo, marketing viral y comunicación interactiva, social media marketing, planificación estratégica online.
Lewis Carroll / Blog del consultor José Antonio Rodríguez que trata sobre comunicación y expresión en el universo social media.
Sociable / Blog con información sobre redes sociales y tendencias en formato inglés y español. El blog es redactado por Javier Reyes, interesado en social media marketing, redes sociales, desarrollo de aplicaciones para redes sociales, eGovernment, firma electrónica, contratación electrónica.
Interactividad / Blog sobre reflexiones sobre social media y marketing electrónico. Apasionado de los social media y del desarrollo social basado en la comuniciación y relación en red.
ETC / ETC es el blog publicado desde Territorio Creativo, agencia consultora de social media marketing.
ABC / Sección “medios y redes” del diario ABC de España, dirigida por Bárbara Yuste. Contiene información sobre redes sociales, tecnología y nuevos medios.
AMÉRICA LATINA
Fastrackmedia / Blog de la firma de nuevos medios especializada en estrategia, redes sociales y capacitación en tecnologías de comunicación digital.
Pulso Social / Pulso Social es una publicación con lo último de emprendimiento y tecnología en América Latina. Trata sobre tecnología y social media, destacando la innovación y desarrollos de emprendedores hispanos y latinoamericanos.
Jesús Hoyos / Blog de CRM (Customer Relationship Management), especialmente dedicado para la región de Latinoamérica.
blog
Clasificaciones
Según el buscador de blogs Wikio, los cinco blogs más influyentes del mundo en enero de 2008 fueron TechCrunch, Mashable!, Engadget, Gizmodo y Boing Boing.El blog en español más influyente fue, de acuerdo con esta clasificación, Microsiervos (España), situado en la décimo tercera posición. Entre los veinte blogs más influyentes de Europa, existían cinco blogs de España, todos en castellano: Microsiervos (2ª posición), Mangas Verdes (6ª), Genbeta (7ª), Loogic (19ª) y Error 500 (20ª).
A nivel exclusivamente de habla hispana, según la clasificación de Alianzo,[9] los blogs más influyentes en español son los siguientes: Microsiervos (España), Barrapunto (España), Enrique Dans (España), Alt1040 (México), genbeta (España), Dirson (España), FayerWayer (Chile), Kriptópolis (España), Escolar.net (España) y Denken Über (Argentina).
Bibliografía básica sobre weblogs
- Universo del weblog: Consejos Prácticos para Crear y Mantener su Blog. Blood, Rebecca. Madrid, Ediciones 2000, S.A. 2005. ISBN 84-96426-76-9.
- Salam Pax. El internauta de Bagdad. Salam Pax. Madrid, Mondadori, 2003. ISBN 84-397-1014-3.
- Blogs. La conversación en internet que está revolucionando medios, empresas y ciudadanos. Rojas Orduña, Octavio Isaac et al. Madrid, ESIC Editorial, 2005. ISBN 84-7356-427-8.
- La revolución de los blogs. Orihuela, José Luis. Madrid, La Esfera de los Libros, S.L., 2006. ISBN 84-9734-498-7.
Véase también
- Best of the Blogs. Premio BOBS a los mejores Blogs (en castellano)
- Blogger
- Blogia
- Blogogía
- Coste por influencia
- Foros
- Marketing vía blog
- Podcasting
- Splog
- Videoblog
- WordPress
Formatos
- RSS, formato de redifusión usado en weblogs, entre otras.
- Atom, otro formato de redifusión usado en weblogs.
Referencias
- ↑ «Time to get a life — pioneer bloguero Justin Hall bows out at 31». SFgate (20-02-2005). Consultado el 09-06-2006.
- ↑ It's the links, stupid. The Economist. 20-4-2006. http://www.economist.com/surveys/displaystory.cfm?story_id=6794172. Consultado el 21-07-2006.
- ↑ Peter Merholz (1999). «Peterme.com». The Internet Archive. Consultado el 21-07-2006.
- ↑ Jason Kottke (August 26, 2003). «kottke.org». Consultado el 21-07-2006.
- ↑ Jensen, Mallory A Brief History of Weblogs
- ↑ Los bloggers celebran hoy su día en La Crónica de Hoy, 31/8/06
- ↑ Diccionario panhispánico de dudas Palabra bitácora.
- ↑ Daily Pundit William Quick, 1/1/2002.
- ↑ Clasificación de Alianzo
Enlaces externos
- La vida en un blog, discurso del académico de la Lengua Juan Luis Cebrian en la RAE.
Internet
En informática, la World Wide Web es un sistema de distribución de información basado en hipertexto o hipermedios enlazados y accesibles a través de Internet. Con un navegador web, un usuario visualiza sitios web compuestos de páginas web que pueden contener texto, imágenes, videos u otros contenidos multimedia, y navega a través de ellas usando hiperenlaces.
La Web fue creada alrededor de 1989 por el inglés Tim Berners-Lee y el belga Robert Cailliau mientras trabajaban en el CERN en Ginebra, Suiza, y publicado en 1992. Desde entonces, Berners-Lee ha jugado un papel activo guiando el desarrollo de estándares Web (como los lenguajes de marcado con los que se crean las páginas web), y en los últimos años ha abogado por su visión de una Web Semántica.
Pantalla infinita
Tóner
Las impresoras láser son conocidas por su impresión de alta calidad, buena velocidad de impresión y su bajo costo por copia; son las impresoras más comunes para muchas de las aplicaciones de oficina de propósito general. Son menos utilizadas por el consumidor generalmente debido a su alto coste inicial. Las impresoras láser están disponibles tanto en color como en monocromo.
El advenimiento de láseres de precisión a precio razonable ha hecho a la impresora monocromática basada en tóner dominante en aplicaciones para la oficina. Otro tipo de impresora basada en tóner es la impresora LED la cual utiliza una colección de LEDs en lugar de láser para causar la adhesión del tóner al tambor de impresión. El tóner (del inglés, toner), también denominado tinta seca por analogía funcional con la tinta, es un polvo fino, normalmente de color negro, que se deposita en el papel que se pretende imprimir por medio de atracción electrostática.
Una vez adherido el pigmento, éste se fija en el papel por medio de presión o calor adecuados. Debido a que en el proceso no intervienen diluyentes, originalmente se ha denominado Xerografía, del griego xeros que significa seco.
En informática un teclado es un periférico de entrada o dispositivo, en parte inspirado en el teclado de las máquinas de escribir, que utiliza una disposición de botones o teclas, para que actúen como palancas mecánicas o interruptores electrónicos que envían información a la computadora. Después de las tarjetas perforadas y las cintas de papel, la interacción a través de los teclados al estilo teletipo se convirtió en el principal medio de entrada para las computadoras. El teclado tiene entre 99 y 108 teclas aproximadamente, y está dividido en cuatro bloques:
1. Bloque de funciones: Va desde la tecla F1 a F12, en tres bloques de cuatro: de F1 a F4, de F5 a F8 y de F9 a F12. Funcionan de acuerdo al programa que esté abierto. Por ejemplo, en muchos programas al presionar la tecla F1 se accede a la ayuda asociada a ese programa.
2. Bloque alfanumérico: Está ubicado en la parte inferior del bloque de funciones, contiene los números arábigos del 1 al 0 y el alfabeto organizado como en una máquina de escribir, además de algunas teclas especiales.
3. Bloque especial: Está ubicado a la derecha del bloque alfanumérico, contiene algunas teclas especiales como Imp Pant, Bloq de desplazamiento, pausa, inicio, fin, insertar, suprimir, RePag, AvPag, y las flechas direccionales que permiten mover el punto de inserción en las cuatro direcciones.
4. Bloque numérico: Está ubicado a la derecha del bloque especial, se activa al presionar la tecla Bloq Num, contiene los números arábigos organizados como en una calculadora con el fin de facilitar la digitación de cifras. Además contiene los signos de las cuatro operaciones básicas: suma +, resta -, multiplicación * y division /; también contiene una tecla de Intro o Enter.
La disposición de las teclas se remonta a las primeras máquinas de escribir, las cuales eran enteramente mecánicas. Al pulsar una letra en el teclado, se movía un pequeño martillo mecánico, que golpeaba el papel a través de una cinta impregnada en tinta. Al escribir con varios dedos de forma rápida, los martillos no tenían tiempo de volver a su posición por la frecuencia con la que cada letra aparecía en un texto. De esta manera la pulsación era más lenta con el fin de que los martillos se atascaran con menor frecuencia.
Sobre la distribución de los caracteres en el teclado surgieron dos variantes principales: la francesa AZERTY y la alemana QWERTY. Ambas se basaban en cambios en la disposición según las teclas más frecuentemente usadas en cada idioma. A los teclados en su versión para el idioma español además de la Ñ, se les añadieron los caracteres de acento agudo (´), grave (`) y circunflejo (^)), además de la cedilla (Ç) aunque estos caracteres son de mayor uso en francés, portugués o en catalán.
Cuando aparecieron las máquinas de escribir eléctricas, y después los ordenadores, con sus teclados también eléctricos, se consideró seriamente modificar la distribución de las letras en los teclados, colocando las letras más corrientes en la zona central; es el caso del Teclado Simplificado Dvorak. El nuevo teclado ya estaba diseñado y los fabricantes preparados para iniciar la fabricación. Sin embargo, el proyecto se canceló debido al temor de que los usuarios tuvieran excesivas incomodidades para habituarse al nuevo teclado, y que ello perjudicara la introducción de las computadoras personales, que por aquel entonces se encontraban en pleno auge.
Primeros teclados
Además de teletipos y máquinas de escribir eléctricas como la IBM Selectric, los primeros teclados solían ser un terminal de computadora que se comunicaba por puerto serial con la computadora. Además de las normas de teletipo, se designó un estándar de comunicación serie, según el tiempo de uso basado en el juego de caracteres ANSI, que hoy sigue presente en las comunicaciones por módem y con impresora (las primeras computadoras carecían de monitor, por lo que solían comunicarse, o bien por luces en su panel de control, o bien enviando la respuesta a un dispositivo de impresión). Se usaba para ellos las secuencias de escape, que se generaban o bien por teclas dedicadas, o bien por combinaciones de teclas, siendo una de las más usadas la tecla Control.La llegada de la computadora doméstica trae una inmensa variedad de teclados y de tecnologías y calidades (desde los muy reputados por duraderos del Dragon 32 a la fragilidad de las membranas de los equipos Sinclair), aunque la mayoría de equipos incorporan la placa madre bajo el teclado, y es la CPU o un circuito auxiliar (como el chip de sonido General Instrument AY-3-8910 en los MSX) el encargado de leerlo. Son casos contados los que recurren o soportan comunicación serial (curiosamente es la tecnología utilizada en el Sinclair Spectrum 128 para el keypad numérico). Sólo los MSX establecerán una norma sobre el teclado, y los diferentes clones del TRS-80 seguirán el diseño del clonado.
Mientras que el teclado del IBM PC y la primera versión del IBM AT no tuvo influencia más allá de los clónicos PC, el Multifunción II (o teclado extendido AT de 101/102 teclas) aparecido en 1987 refleja y estandariza de facto el teclado moderno con cuatro bloques diferenciados : un bloque alfanumérico con al menos una tecla a cada lado de la barra espaciadora para acceder a símbolos adicionales; sobre él una hilera de 10 o 12 teclas de función; a la derecha un teclado numérico, y entre ambos grandes bloques, las teclas de cursor y sobre ellas varias teclas de edición. Con algunas variantes este será el esquema usado por los Atari ST, los Commodore Amiga (desde el Commodore Amiga 500), los Sharp X68000, las estaciones de trabajo SUN y Silicon Graphics y los Acorn Archimedes/Acorn RISC PC. Sólo los Mac siguen con el esquema bloque alfanumérico + bloque numérico, pero también producen teclados extendidos AT, sobre todo para los modelos con emulación PC por hardware.
Mención especial merece la serie 55 de teclados IBM, que ganaron a pulso la fama de "indestructibles", pues tras más de 10 años de uso continuo en entornos como las aseguradoras o la administración pública seguían funcionando como el primer día.
Con la aparición del conector PS/2, varios fabricantes de equipos no PC proceden a incorporarlo en sus equipos. Microsoft, además de hacerse un hueco en la gama de calidad alta, y de presentar avances ergonómicos como el Microsoft Natural Keyboard, añade 3 nuevas teclas tras del lanzamiento de Windows 95. A la vez se generalizan los teclados multimedia que añaden teclas para controlar en el PC el volumen, el lector de CD-ROM o el navegador, incorporan en el teclado altavoces, calculadora, almohadilla sensible al tacto o bola trazadora
Teclados con USB
Aunque los teclados USB comienzan a verse al poco de definirse el estándar USB, es con la aparición del Apple iMac, que trae tanto teclado como mouse USB de serie cuando se estandariza el soporte de este tipo de teclado. Además tiene la ventaja de hacerlo independiente del hardware al que se conecta. El estándar define scancodes de 16 bits que se transmiten por la interfaz. Del 0 al 3 son códigos de error del protocolo, llamados NoEvent, ErrorRollOver, POSTFail, ErrorUndefined, respectivamente. Del 224 al 231 se reservan para las teclas modificadoras (LCtrl, LShift, LAlt, LGUI, RCtrl, RShift, RAlt, RGUI)Existen distintas disposiciones de teclado, para que se puedan utilizar en diversos lenguajes. El tipo estándar de teclado inglés se conoce como QWERTY. Denominación de los teclados de computadora y máquinas de escribir que se utilizan habitualmente en los países occidentales, con alfabeto latino. Las siglas corresponden a las primeras letras del teclado, comenzando por la izquierda en la fila superior. El teclado en español o su variante latinoamericana son teclados QWERTY que se diferencian del inglés por presentar la letra "ñ" y "Ñ" en su distribución de teclas.
Se han sugerido distintas alternativas a la disposición de teclado QWERTY, indicando ventajas tales como mayores velocidades de tecleado. La alternativa más famosa es el Teclado Simplificado Dvorak.
Sólo las teclas etiquetadas con una letra en mayúscula pueden ofrecer ambos tipos: mayúsculas y minúsculas. Para teclear un símbolo que se encuentra en la parte superior izquierda de una tecla, se emplea la tecla mayúsculas, etiquetada como "↑". Para teclear un símbolo que se encuentra en la parte inferior derecha de una tecla, se emplea la tecla Alt-Gr.
Teclas inertes
Algunas lenguas incluyen caracteres adicionales al teclado inglés, como los caracteres acentuados. Teclear los caracteres acentuados resulta más sencillo usando las teclas inertes. Cuando se utiliza una de estas teclas, si se presiona la tecla correspondiente al acento deseado nada ocurre en la pantalla, por lo que, a continuación se debe presionar la tecla del carácter a acentuar. Esta combinación de teclas requiere que se teclee una secuencia aceptable. Por ejemplo, si se presiona la tecla inerte del acento (ej. ´) seguido de la letra A, obtendrá una "a" acentuada (á). Sin embargo, si se presiona una tecla inerte y a continuación la tecla T, no aparecerá nada en la pantalla o aparecerán los dos caracteres por separado (´t), a menos que la fuente particular para su idioma incluya la "t" acentuada.Para teclear una marca de acento diacrítico, simplemente se presiona la tecla inerte del acento, seguida de la barra de espacio.
Tipos de teclado
Hubo y hay muchos teclados diferentes, dependiendo del idioma, fabricante… IBM ha soportado tres tipos de teclado: el XT, el AT y el MF-II.El primero (1981) de éstos tenía 83 teclas, usaban es Scan Code set1, unidireccionales y no eran muy ergonómicos, ahora está obsoleto.
Más tarde (1984) apareció el teclado PC/AT con 84 teclas (una más al lado de SHIFT IZQ), ya es bidireccional, usa el Scan Code set 2 y al igual que el anterior cuenta con un conector DIN de 5 pines.
En 1987 IBM desarrolló el MF-II (Multifunción II o teclado extendido) a partir del AT. Sus características son que usa la misma interfaz que el AT, añade muchas teclas más, se ponen leds y soporta el Scan Code set 3, aunque usa por defecto el 2. De este tipo hay dos versiones, la americana con 101 teclas y la europea con 102.
Los teclados PS/2 son básicamente iguales a los MF-II. Las únicas diferencias son el conector mini-DIN de 6 pines (más pequeño que el AT) y más comandos, pero la comunicación es la misma, usan el protocolo AT. Incluso los ratones PS/2 usan el mismo protocolo.
Hoy en día existen también los teclados en pantalla, también llamados teclados virtuales, que son (como su mismo nombre indica) teclados representados en la pantalla, que se utilizan con el ratón o con un dispositivo especial (podría ser un joystick). Estos teclados lo utilizan personas con discapacidades que les impiden utilizar adecuadamente un teclado fisico.
Actualmente la denominación AT ó PS/2 sólo se refiere al conector porque hay una gran diversidad de ellos.
Un teclado realiza sus funciones mediante un micro controlador. Estos micro controladores tienen un programa instalado para su funcionamiento, estos mismos programas son ejecutados y realizan la exploración matricial de las teclas cuando se presiona alguna, y así determinar cuales están pulsadas.
Para lograr un sistema flexible los microcontroladores no identifican cada tecla con su carácter serigrafiado en la misma sino que se adjudica un valor numérico a cada una de ellas que sólo tiene que ver con su posición física. El teclado latinoamericano sólo da soporte con teclas directas a los caracteres específicos del castellano, que incluyen dos tipos de acento, la letra eñe y los signos de exclamación e interrogación. El resto de combinaciones de acentos se obtienen usando una tecla de extensión de grafismos. Por lo demás el teclado latinoamericano está orientado hacia la programación, con fácil acceso al juego de símbolos de la norma ASCII.
Por cada pulsación o liberación de una tecla el micro controlador envía un código identificativo que se llama Scan Code. Para permitir que varias teclas sean pulsadas simultáneamente, el teclado genera un código diferente cuando una tecla se pulsa y cuando dicha tecla se libera. Si el micro controlador nota que ha cesado la pulsación de la tecla, el nuevo código generado (Break Code) tendrá un valor de pulsación incrementado en 128. Estos códigos son enviados al circuito micro controlador donde serán tratados gracias al administrador de teclado, que no es más que un programa de la BIOS y que determina qué carácter le corresponde a la tecla pulsada comparándolo con una tabla de caracteres que hay en el kernel, generando una interrupción por hardware y enviando los datos al procesador. El micro controlador también posee cierto espacio de memoria RAM que hace que sea capaz de almacenar las últimas pulsaciones en caso de que no se puedan leer a causa de la velocidad de tecleo del usuario. Hay que tener en cuenta, que cuando realizamos una pulsación se pueden producir rebotes que duplican la señal. Con el fin de eliminarlos, el teclado también dispone de un circuito que limpia la señal.
En los teclados AT los códigos generados son diferentes, por lo que por razones de compatibilidad es necesario traducirlos. De esta función se encarga el controlador de teclado que es otro microcontrolador (normalmente el 8042), éste ya situado en el PC. Este controlador recibe el Código de Búsqueda del Teclado (Kscan Code) y genera el propiamente dicho Código de Búsqueda. La comunicación del teclado es vía serie. El protocolo de comunicación es bidireccional, por lo que el servidor puede enviarle comandos al teclado para configurarlo, reiniciarlo, diagnósticos, etc.
Disposición del teclado
La disposición del teclado es la distribución de las teclas del teclado de una computadora, una máquina de escribir u otro dispositivo similar.Existen distintas distribuciones de teclado, creadas para usuarios de idiomas diferentes. El teclado estándar en español corresponde al diseño llamado QWERTY. Una variación de este mismo es utilizado por los usuarios de lengua inglesa. Para algunos idiomas se han desarrollado teclados que pretenden ser más cómodos que el QWERTY, por ejemplo el Teclado Dvorak.
Las computadoras modernas permiten utilizar las distribuciones de teclado de varios idiomas distintos en un teclado que físicamente corresponde a un solo idioma. En el sistema operativo Windows, por ejemplo, pueden instalarse distribuciones adicionales desde el Panel de Control.
Existen programas como Microsoft Keyboard Layout Creator KbdEdit, que hacen muy fácil la tarea de crear nuevas distribuciones, ya para satisfacer las necesidades particulares de un usuario, ya para resolver problemas que afectan a todo un grupo lingüístico. Estas distribuciones pueden ser modificaciones a otras previamente existentes (como el teclado latinoamericano extendido o el gaélico ), o pueden ser enteramente nuevas (como la distribución para el Alfabeto Fonético Internacional, o el panibérico ).
A primera vista en un teclado podemos notar una división de teclas, tanto por la diferenciación de sus colores, como por su distribución. Las teclas grisáceas sirven para distinguirse de las demás por ser teclas especiales (borrado, teclas de función, tabulación, tecla del sistema…). Si nos fijamos en su distribución vemos que están agrupadas en cuatro grupos:
- Teclas de función: situadas en la primera fila de los teclados. Combinadas con otras teclas, nos proporcionan acceso directo a algunas funciones del programa en ejecución.
- Teclas de edición: sirven para mover el cursor por la pantalla.
- Teclas alfanuméricas: son las más usadas. Su distribución suele ser la de los teclados QWERTY, por herencia de la distribución de las máquinas de escribir. Reciben este nombre por ser la primera fila de teclas, y su orden es debido a que cuando estaban organizadas alfabéticamente la máquina tendía a engancharse, y a base de probar combinaciones llegaron a la conclusión de que así es como menos problemas daban. A pesar de todo esto, se ha comprobado que hay una distribución mucho más cómoda y sencilla, llamada Dvorak, pero en desuso debido sobre todo a la incompatibilidad con la mayoría de los programas que usamos.
- Bloque numérico: situado a la derecha del teclado. Comprende los dígitos del sistema decimal y los símbolos de algunas operaciones aritméticas. Añade también la tecla especial Bloq Num, que sirve para cambiar el valor de algunas teclas para pasar de valor numérico a desplazamiento de cursor en la pantalla. el teclado numérico también es similar al de un calculadora cuenta con las 4 operaciones básicas que son + (suma), - (resta), * (multiplicación) y / (división).
Clasificación de teclados de computadoras
En el mercado hay una gran variedad de teclados. Según su forma física:- Teclado XT de 83 teclas: se usaba en el PC XT (8086/88).
- Teclado AT de 83 teclas: usado con los PC AT (286/386).
- Teclado expandido de 101/102 teclas: es el teclado actual, con un mayor número de teclas.
- Teclado Windows de 103/104 teclas: el teclado anterior con 3 teclas adicionales para uso en Windows.
- Teclado ergonómico: diseñados para dar una mayor comodidad para el usuario, ayudándole a tener una posición más relajada de los brazos.
- Teclado multimedia: añade teclas especiales que llaman a algunos programas en el computador, a modo de acceso directo, como pueden ser el programa de correo electrónico, la calculadora, el reproductor multimedia…
- Teclado inalámbrico: suelen ser teclados comunes donde la comunicación entre el computador y el periférico se realiza a través de rayos infrarrojos, ondas de radio o mediante bluetooth.
- Teclado flexible: Estos teclados son de plástico suave o silicona que se puede doblar sobre sí mismo. Durante su uso, estos teclados pueden adaptarse a superficies irregulares, y son más resistentes a los líquidos que los teclados estándar. Estos también pueden ser conectados a dispositivos portátiles y teléfonos inteligentes. Algunos modelos pueden ser completamente sumergidos en agua, por lo que hospitales y laboratorios los usan, ya que pueden ser desinfectados.