HISTORIA DE LA CRIPTOGRAFIA

22:06 / Publicado por Alex / comentarios (0)

Siglos atrás, cuando empezaron a conformarse sociedades grandes y complejas en donde existían intereses particulares que no debían ser conocidos, se recurría a la utilización de métodos de comunicación que garantizaran el secreto o confidencialidad de la información a compartir. Por ejemplo Julio César utilizaba un sistema de cifrado1 (de sustitución monoalfabética) para comunicarse con sus fuerzas militares dentro y fuera de Roma, diseño que mucho más tarde fue mejorado en el siglo XIX por Blaise de Vigenère a quien se le atribuyó el desarrollo de un cifrador de sustitución polialfabética2 mucho más elaborado, en el cual se empleó por primera vez el uso de una clave compartida (tal como en la actualidad).

bits Bits y  Qubits, El camino de la criptografía   Parte I

Hasta el siglo XIX las sustituciones y transposiciones constituían las técnicas más comunes para ocultar mensajes a compartir, mismas que eran confiables hasta que alguien lograba descubrir su funcionamiento (o algoritmo). Actualmente en cambio, se aplican las matemáticas como base fundamental de la criptografía, aportando un nivel de seguridad evidentemente mucho más elevado en donde los algoritmos incluso son conocidos por el público. De hecho el alemán Auguste Kerckhoffs3, planteó un principio en el que argumenta que “la fortaleza de un cifrador está en la fortaleza de su llave y no en cuán secreto sea su algoritmo”, valiosa lección que fue comprobada con sangre por sus compatriotas derrotados en la segunda guerra mundial, que se comunicaban con máquinas que cifraban las comunicaciones (como la Enigma4) cuyo diseño era evidentemente secreto, mecanismo que fue realmente efectivo hasta que el inglés Alan Turing5 (quien sentó las bases de la computación moderna) logró descifrar sus transmisiones en uno de los casos de criptoanálisis más memorables, evidenciando que el esfuerzo de mantener secreto un algoritmo de cifrado es inútil y que la seguridad del mismo recae directamente en la dificultad para descifrar su clave.

Siguiendo el principio de Kerckhoffs un gran número de diseños de cifradores actuales son abiertos y utilizan claves tan fuertes que podría tardarse años (cientos o miles) intentando descifrarlas con la capacidad de cómputo actual, aspecto que será revaluado al final del documento.

Teniendo ahora una somera visión del camino de la criptografía hasta nuestros días, es importante mencionar de forma muy breve algunas de sus aplicaciones.

4356920482 9fb4f8e86a Bits y Qubits, El camino de la criptografía    Parte I

Bases de Datos

Los motores de bases de datos incluyen algoritmos criptográficos dentro de su abanico de funciones, cuya implementación en sistemas de información es muy recomendable, evitando codificarlos o reusar código fuente de terceros.

4356236881 ebafee97d4 Bits y Qubits, El camino de la criptografía    Parte I

Comunicaciones en Internet

TLS v1.2 es un protocolo derivado de SSL que provee comunicaciones seguras a través de la Internet, previniendo eavesdropping, tampering o message forgery. Una gran ventaja del protocolo es su capacidad de encapsular datos de capa de aplicación, ofreciendo transparencia en el desarrollo e implementación de aplicaciones, así como servir de plataforma de seguridad para protocolos (de capa superior) como HTTP, SMTP, NNTP o SIP.
TLS ofrece confidencialidad mediante criptografía simétrica, cifrando los datos con diferentes llaves para cada conexión, integridad utilizando funciones de hashing y autenticación mediante el uso de algoritmos de llave
pública.

4356994500 cdf73d8140 Bits y Qubits, El camino de la criptografía    Parte I

Autenticación: Kerberos

Protocolo de autenticación que permite validar identidades de participantes durante un intercambio de mensajes, fue desarrollado por el MIT con base en el paper de Needmham y Schroeder de1978.

Su funcionamiento requiere un servidor central contra el cual los usuarios deben autenticarse primero, conocido como Key Distribution Center (KDC). Una vez se ha validado su identidad, se le entrega al usuario un ticket de sesión que utilizará para autenticarse contra los demás servidores que “confían” plenamente en el KDC y sólo aceptan solicitudes de cualquier usuario que se identifique con un ticket de sesión, mismo que podrá ser reutilizado en diferentes servidores hasta que termine su tiempo de expiración. Kerberos constituye uno de los mecanismos más seguros de autenticación además de proveer una solución robusta de single sign-on.

La última versión, Kerberos 5, permite utilizar una gran cantidad de algoritmos criptográficos simétricos, asimétricos y de hashing, que implementa mayoritariamente de forma híbrida (por ejemplo 3DES-CBC-SHA1).

4357030346 ccb83edea2 Bits y Qubits, El camino de la criptografía    Parte I

GnuPG

Herramienta de línea de comandos que implementa el protocolo OpenPGP (que a su vez usa PGP 5 como base), que permite ofrecer confidencialidad, administración de llaves, autenticación y firmas digitales, mediante la combinación del uso de criptografía simétrica y de llave pública.

4357038688 0c93e4d271 Bits y Qubits, El camino de la criptografía    Parte I

P2P: MSE

El Message Stream Encryption (MSE) es un protocolo de cifrado utilizado en gran parte de la red torrent (y otros protocolos P2P), que sirve de envoltura a los flujos de datos y los protege de ser detectados como tráfico torrent, evitando así su filtrado por parte de terceros (como ISPs). De igual forma se consideró durante su diseño que MSE ofreciera protección en contra de eavesdroping y ataques man-in-the-middle.
MSE utiliza Diffie-Hellman para acordar la llave secreta, SHA-1 como función de hashing y RC4 para cifrar la comunicación debido a su
seguridad y velocidad (razón por la cual fue elegido en lugar de AES). Es importante aclarar que el objetivo del protocolo es “aleatorizar” el flujo de datos sin garantizar su integridad o la autenticación de los peers.

4356304689 d24788f6df Bits y Qubits, El camino de la criptografía    Parte I

Wi-Fi

Tres diferentes protocolos permiten a un usuario conectarse a una red inalámbrica: WEP, WPA y WPA2.
A pesar de ser el más utilizado, WEP presenta vulnerabilidades serias debido principalmente a una deficiente alimentación del cifrador RC4. Fue
tan grave este error que se decidió generar un nuevo protocolo de comunicaciones wi-fi que reemplazara a WEP, así apareció WPA que utiliza
de una forma más adecuada a RC4 e incluye dos nuevos protocolos: TKIP (Temporal Key Integrity Protocol), que genera llaves diferentes para cada
sesión de usuario, y EAP (Extensible Authentication Protocol) que permite autenticar clientes de forma segura utilizando un servidor tipo RADIUS,
características que solucionan gran parte de los problemas de WEP. Sin embargo el protocolo wi-fi más seguro es WPA2, que incluye las
características de WPA y reemplaza a RC4 por AES, incrementando así en mayor medida la seguridad de la conexión.

4356316251 720c1b1560 Bits y Qubits, El camino de la criptografía    Parte I

Celular: GSM-EDGE-GPRS

La transmisión de voz vía GSM o EDGE desde el handset del usuario hasta la antena de la estación es cifrada mediante el algoritmo A5/3, mientras que GPRS utilliza GEA3. Ambos son cifradores de flujos que utilizan el cifrador de bloque Kasumi en modo OFB (output feedback) que les sirve como generador pseudoaleatorio.

4356324151 f70003f6e6 Bits y Qubits, El camino de la criptografía    Parte I

Mensajería Instantánea

La mensajería instantánea es una actividad convertida en costumbre para un gran número de internautas, que desconocen que la mayoría de clientes de
IM que utilizan transmiten todas sus conversaciones en texto claro, de hecho usuarios poco experimentados comparten información sensible por
este medio de comunicación sin saber los riesgos que están corriendo.
Existe una comparación de diferentes características de clientes de mensajería instantánea en wikipedia:

http://en.wikipedia.org/wiki/Comparison_of_instant_messaging_clients

Evidentemente la criptografía se encuentra presente en algunas de nuestras actividades diarias, y poco (o nada) sabemos acerca de qué tipo de algoritmos criptográficos se utilizan en cada una de ellas, imposibilitándonos entender qué tan seguros o vulnerables nos encontramos. Así como en los cuadros anteriores, existen muchas más aplicaciones de la criptografía, como transmisión de televisión (y su respectiva restricción de canales premium),
transmisión de señales satelitales, telefonía celular, creación de contraseñas, e-commerce, comunicaciones militares, bluetooth, VPN, etc. Es importante conocer cómo las aplicaciones o dispositivos con que interactuamos cotidianamente transmiten nuestra información, no sólo qué algoritmos implementan, sino también el tamaño de las claves que utilizan, porque según el principio de Kerckhoffs, en la fortaleza de la llave reside realmente la seguridad de la información transmitida.

El número de bits de la llave o del hash, dependiendo del caso, es un tema realmente crítico en criptografía que debe ser evaluado cuidadosamente por el profesional encargado de seguridad, afortunadamente existen recomendaciones útiles como apoyo técnico en este sentido que pueden ser consultadas en www.keylength.com.

Para terminar de hablar de criptografía moderna, el siguiente cuadro sugiere los algoritmos recomendables a implementar en las soluciones tecnológicas de la actualidad.

4357138566 6523e145c5 Bits y Qubits, El camino de la criptografía    Parte I

Hasta aquí llega la primera parte de este articulo, en la segunda edición hablaremos sobre la criptografía cuántica, espero que les gustara este articulo y me lo hagan saber con sus comentarios.

UNION EUROPEA

22:56 / Publicado por Alex / comentarios (0)

Finalmente la Unión Europea ha dado el visto bueno a la compra de Sun por parte de Oracle, después que en un comunicado de prensa, Oracle se “comprometiera” a invertir en MySQL un mínimo de un 2,4% del valor de MySQL cada año durante los próximos años, lo que serian mas o menos 24 millones de dólares al año.

4194169334 b7c213bccb o Union Europea aprueba la compra de Sun

Michael “Monty” Widenius, creador de MySQL, ha comentado la noticia en su blog y nos cuenta que la campaña para salvar MySQL consiguió buenos resultados pero que no se puede bajar la guardia, ya que hay muchos puntos de la negociación con la Unión Europea son sensibles y no comprometen realmente a Oracle.

En su blog “Monty”, nos explica que Oracle solo ha dado promesas vacías a MySQL, ya que nada quedo propuesto formalmente y las promesas de Oracle solo se hicieron mediante un comunicado de prensa, aun si Oracle cumpliera las promesas realizadas estas solo cubrirían los próximos 5 años, después de este periodo de tiempo, la empresa podría hacer cualquier cosas con MySQL, incluso cerrar su código.

Les recomiendo que lean toda la entrada de Monty en su blog para entender claramente este acuerdo.

10 FALLOS DE SEGURIDAD EN APLICACIONES WEB

21:44 / Publicado por Alex / comentarios (0)

El proyecto OWASP (Open Web Application Security Project) ha publicado la actualización al año 2010 de su famoso TOP 10 con los mayores riesgos asociados a las aplicaciones web.

4Oc8p TOP 10 Fallos  de Seguridad en Aplicaciones Web

En esta nueva edición del TOP 10 se nota como intencionalmente han querido eliminar de la listas algunas vulnerabilidades específicas, para enfocarse más en los riesgos de seguridad que representan estas vulnerabilidades. Este nuevo enfoque sobre riesgos de seguridad en las aplicaciones web tienen por objeto impulsar a las organizaciones, a madurar más la comprensión y gestión de aplicaciones de seguridad a través de su organización.

La OWASP indica que el Top 10 para el 2010 es:

  1. Inyección
  2. Cross-Site Scripting (XSS)
  3. Interrupción de la autenticación y administración de sesiones
  4. Referencias de Objetos Directos Inseguros
  5. Falsificación de Solicitud Cross-Site (CSRF)
  6. La configuración errónea de Seguridad
  7. Cifrado de Almacenamiento Inseguro
  8. Falla al restringir el acceso URL
  9. Insuficiente protección de la capa de transporte
  10. Redirecciones sin validar y hacia adelante.
Más Información:
Anuncio en la Página Oficial de OWASP

QUE ES FTP.

17:35 / Publicado por Alex / comentarios (0)


Protocolo de Transferencia de Archivos

FTP son las siglas de File Transfer Protocol, es decir, Protocolo de Transferencia de Archivos. Es un sistema que permite enviar y recibir ficheros entre computadores a través de la red Internet.

Con el fin de facilitar la creación de tu web, los servidores comerciales disponen de un sistema de FTP, mediante el que puedes enviar rápidamente y de una sola vez todos los ficheros que desees publicar en tu página u otros ficheros: imágenes, archivos de audio, etc.

¿Qué necesito para usar el FTP de un servidor?

Necesitas un programa de FTP. En cualquier sitio de descarga de archivos comercial se dispone de varios software FTP

¿Cómo funciona un programa de FTP?

Primero debes configurar el programa para acceder a tu cuenta. Éstos son los datos que necesitas:

  • Servidor, IP, server, host: ftp.servidor.com
  • Puerto: 21
  • Usuario, user: tu nombre de usuario o Loginname
  • Clave, password: Tu clave de acceso con ese servidor

Una vez configurado, ejecuta la opción de conectar. Una vez conectado, podrás ver las carpetas y ficheros de tu disco duro en un lado, y las carpetas y ficheros de tu sitio web en el servidor. No tienes más que seleccionar uno o varios ficheros y arrastrarlos a la carpeta o directorio de tu sitio web que desees: los archivos se irán transfiriendo uno a uno.

¿Puedo subir ficheros de cualquier tipo y tamaño por FTP?

Generalmente los servidores tienen restricciones en cuanto a archivos ejecutables o del sistema, también hay restricciones en el tamaño, normalmente, no mayor de 1.5 Mb por archivo. Pero un web page bien diseñado no debe tener archivos de ese tipo.

TIPOS DE SERVIDORES

17:32 / Publicado por Alex / comentarios (0)

Plataformas de Servidor (Server Platforms): Un término usado a menudo como sinónimo de sistema operativo, la plataforma es el hardware o software subyacentes para un sistema, es decir, el motor que dirige el servidor.

Servidores de Aplicaciones (Application Servers): Designados a veces como un tipo de middleware (software que conecta dos aplicaciones), los servidores de aplicaciones ocupan una gran parte del territorio entre los servidores de bases de datos y el usuario, y a menudo los conectan.

Servidores de Audio/Video (Audio/Video Servers): Los servidores de Audio/Video añaden capacidades multimedia a los sitios web permitiéndoles mostrar contenido multimedia en forma de flujo continuo (streaming) desde el servidor.

Servidores de Chat (Chat Servers): Los servidores de chat permiten intercambiar información a una gran cantidad de usuarios ofreciendo la posibilidad de llevar a cabo discusiones en tiempo real.

Servidores de Fax (Fax Servers): Un servidor de fax es una solución ideal para organizaciones que tratan de reducir el uso del teléfono pero necesitan enviar documentos por fax.

Servidores FTP (FTP Servers): Uno de los servicios más antiguos de Internet, File Transfer Protocol permite mover uno o más archivos...Leer más »

Servidores Groupware (Groupware Servers): Un servidor groupware es un software diseñado para permitir colaborar a los usuarios, sin importar la localización, vía Internet o vía Intranet corporativo y trabajar juntos en una atmósfera virtual.

Servidores IRC (IRC Servers): Otra opción para usuarios que buscan la discusión en tiempo real, Internet Relay Chat consiste en varias redes de servidores separadas que permiten que los usuarios conecten el uno al otro vía una red IRC.

Servidores de Listas (List Servers): Los servidores de listas ofrecen una manera mejor de manejar listas de correo electrónico, bien sean discusiones interactivas abiertas al público o listas unidireccionales de anuncios, boletines de noticias o publicidad.

Servidores de Correo (Mail Servers): Casi tan ubicuos y cruciales como los servidores web, los servidores de correo mueven y almacenan el correo electrónico a través de las redes corporativas (vía LANs y WANs) y a través de Internet.

Servidores de Noticias (News Servers): Los servidores de noticias actúan como fuente de distribución y entrega para los millares de grupos de noticias públicos actualmente accesibles a través de la red de noticias USENET.

Servidores Proxy (Proxy Servers): Los servidores proxy se sitúan entre un programa del cliente (típicamente un navegador) y un servidor externo (típicamente otro servidor web) para filtrar peticiones, mejorar el funcionamiento y compartir conexiones.

Servidores Telnet (Telnet Servers): Un servidor telnet permite a los usuarios entrar en un ordenador huésped y realizar tareas como si estuviera trabajando directamente en ese ordenador.



TIPOS DE SERVIDORES

17:32 / Publicado por Alex / comentarios (0)

18:23 / Publicado por Alex / comentarios (0)

APACHE




El servidor HTTP Apache es un servidor web HTTP de código abierto para plataformas Unix (BSD, GNU/Linux, etc.), Microsoft Windows, Macintosh y otras, que implementa el protocolo HTTP/1.1[1] y la noción de sitio virtual. Cuando comenzó su desarrollo en 1995 se basó inicialmente en código del popular NCSA HTTPd 1.3, pero más tarde fue reescrito por completo. Su nombre se debe a que Behelendorf quería que tuviese la connotación de algo que es firme y enérgico pero no agresivo, y la tribu Apache fue la última en rendirse al que pronto se convertiría en gobierno de EEUU, y en esos momentos la preocupación de su grupo era que llegasen las empresas y "civilizasen" el paisaje que habían creado los primeros ingenieros de internet. Además Apache consistía solamente en un conjunto de parches a aplicar al servidor de NCSA. Era, en inglés, a patchy server (un servidor "parcheado").

El servidor Apache se desarrolla dentro del proyecto HTTP Server (httpd) de la Apache Software Foundation.

Apache presenta entre otras características altamente configurables, bases de datos de autenticación y negociado de contenido, pero fue criticado por la falta de una interfaz gráfica que ayude en su configuración.

Apache tiene amplia aceptación en la red: desde 1996, Apache, es el servidor HTTP más usado. Alcanzó su máxima cuota de mercado en 2005 siendo el servidor empleado en el 70% de los sitios web en el mundo, sin embargo ha sufrido un descenso en su cuota de mercado en los últimos años. (Estadísticas históricas y de uso diario proporcionadas por Netcraft[2] ).

La mayoría de las vulnerabilidades de la seguridad descubiertas y resueltas tan sólo pueden ser aprovechadas por usuarios locales y no remotamente. Sin embargo, algunas se pueden accionar remotamente en ciertas situaciones, o explotar por los usuarios locales malévolos en las disposiciones de recibimiento compartidas que utilizan PHP como módulo de Apache.

8:15 / Publicado por Alex / comentarios (1)

PACKET TRACER



Este programa es software elaborado por Cisco que permite a los maestros y a los estudiantes simular redes de comunicación.
Es una gran herramienta, una de sus ventajas es que trae imágenes que muestran cómo son los dispositivos en la vida real.

Se pueden demostrar las tecnologías y configuraciones utilizando Packet Tracer para enseñar a los complejos CCNA de redes a nivel de conceptos, lo que lo hace sumamente útil para conferencias, grupales e individuales laboratorios, evaluaciones, la solución de problemas y tareas de modelado, tareas, juegos y concursos


. En este programa se crea la topología física de la red simplemente arrastrando los dispositivos a la pantalla. Luego clickando en ellos se puede ingresar a sus consolas de configuración. Allí están soportados todos los comandos del Cisco IOS e incluso funciona el "tab completion". Una vez completada la configuración física y lógica de la red. También se puede hacer simulaciones de conectividad (pings, traceroutes, etc) todo ello desde las propias consolas incluidas.

MEXICO SEGUNDO PAIS AFECTADO POR VIRUS

22:37 / Publicado por Alex / comentarios (1)

Un nuevo tipo de virus informático vulneró mas de 75 mil computadoras en 2 mil 500 organizaciones en todo el mundo, según la firma de seguridad en Internet NetWitness, esto significa que todos podríamos estar expuestos a que nuestras máquinas se vean afectadas.

El último virus (conocido como “Kneber botnet0”) reúne datos de acceso a sistemas financieros online, sitios de redes sociales y sistemas de correo electrónico desde las computadoras infectadas y traslada la información a los hackers, dijo la firma en un comunicado.

Se trata de uno de los mayores ataques que ha tenido lugar hasta el momento.

Las organizaciones públicas y privadas en 196 países fueron víctimas del ciberataque que fue puesto en marcha en 2008 y fue descubierto sólo apenas el mes pasado.

Naciones vulnerables

Tan sólo por debajo de Egipto, México es el segundo país más afectado por este virus, el estudio realizado localiza a Arabia Saudita en el tercer puesto seguido de Turquía y Estados Unidos.

Las investigaciones adicionales de la firma de software de seguridad, que tiene su sede en Herndon, Virginia, revelaron que muchos sistemas comerciales y gubernamentales estuvieron afectados, incluyendo 68 mil credenciales de conexión corporativas y acceso a sistemas de correo electrónicos, sitios de banca electrónica, Yahoo, Hotmail y varias de las famosas redes sociales como Facebook.

“La protección convencional contra el malware y sistemas de detección de intrusos basados en la firma son, por definición, inadecuados para enfrentarse a ‘Kneber’ o la mayoría de amenazas avanzadas”, comentó el consejero delegado, Amit Yoran.

Compañías en guardia

Tres cuartas partes de las compañías han sido víctimas de un ciberataque en el último año, acuerdo con la empresa de seguridad Symantec.

De acuerdo con el reporte del Estado de la Seguridad Empresarial 2010 del vendedor de seguridad, esos ataques le cuestan a las organizaciones un promedio de 2 millones al año.

Dos de cada cinco negocios se protegen a sí mismos contra ciberataques como una prioridad sobre desastres naturales, terrorismo y crimen tradicional, mientras que 94% admitió que están planeando hacer cambios en la seguridad de IT este año.

La investigación también mostró que los negocios dijeron que la seguridad de IT se estaba volviendo más difícil debido a la falta personal y nuevas iniciativas que provean dificultar para asegurar, tales como proyectos basados en el cumplimiento del personal.

18:28 / Publicado por Alex / comentarios (1)

APLICACIONES QUE REALIZA MICROSOFT



Microsoft empezó a desarrollar una serie de aplicaciones para PC con fines comerciales. En 1982 salió al mercado Multiplan, un programa de hoja de cálculo, y el año siguiente se puso a la venta el procesador de textos denominado Microsoft Word. En 1984 Microsoft fue una de las primeras compañías del sector que se dedicó a desarrollar aplicaciones para Macintosh, una computadora personal creada por la compañía Apple Computer. En un principio, Microsoft obtuvo grandes éxitos de venta de programas para Macintosh como Word, Excel y Works (un grupo de aplicaciones integradas en un paquete). No obstante, Multiplan para MS-DOS fue casi totalmente sustituido por la famosa hoja de cálculo de Lotus Development Corporation, Lotus 1-2-3.
La creacion de sistemas operativos desde el sistema operativo no grafico llegando a la actualidad con el windows 7 una interfaz grafica sorprendente.
La creacion creacion de Programas tanto para PC como para Videojuegos teniendo la creacion de su propia consola llamada XBOX.















RECUPERADOR DE ARCHIVOS BORRADOS

16:55 / Publicado por Alex / comentarios (1)

SystemRescueCD es un completo LiveCD orientado a la recuperación de sistemas después de crashes. Viene repleto de utilidades open source que facilitan en gran medida la reparación, además de acceso a la red en caso de ser necesario. El kernel soporta los sistemas de archivos más comunes como ext2, ext3, ext4, ReiserFS, Reiser5, BTRFS, XFS, NTFS, iso9660, así como sistemas de archivos en red como p Samba y NFS. No requiere la instalación de ningún tipo de archivo. Veamos más a fondo la utilidad que nos puede prestar…




Contenido del CD
Herramientas de particionamiento gráficas, como GParted.
Las herramientas de consola más importantes para Linux. Por supuesto, tiene GNU Parted (editor de particiones), Partimage (clonador de disco) para hacer copias de particiones a un único archivo, herramientas de sistemas de archivos (e2fsprogs para ext2/ext3, reiserfsprogs para ReiserFS, reiser4progs para reiser4, xfsprogs para XFS, jfsutils para JFS, dosfstools para FAT, NtfsProgs para NTFS).
Ntfs-3g (Ntfs driver third generation) proporciona soporte completa para lectura-escritura en particiones NTFS desde Linux.
Clam-AntiVirus. Software Antivirus gratuito.
Herramientas usuales para Linuxeros: tar/gzip/bzip2 para archivar. Las mismas herramientas para usuarios de Windows: zip/unzip, rar/unrar, p7zip are provided. Esto significa que tienes la posibilidad de hacer una copia/restaurar tus datos de Windows.
Midnight-Commander (escribir “mc” en la consola) es clon libre del Norton Commander. Con mc, es sencillo navegar, copiar, mover, editar los archivos de tu equipo. Si no sabes los comandos Linux básicos, puedes usar mc.
Puedes usar lynx ó links. Ambos son navegadores livianos. Funcionando con FrameBuffer, puedes pasarle parámetros a la línea de comandos del programa links. Te activará el modo gráfico y mostrará imágenes, además de proporcionar una amigable interfaz.
Por supuesto los editores son importantes cuando tienes problemas. Nano (edito sencillo),vim (vi mejorado) y qemacs (clon de emacs) son proporcionados en modo texto.
El entorno gráfico X.Org / Xvesa y el gestor de ventanas WindowMaker. Te permite usar programas gráficos como GParted, editores (gvim y leafpad), y Firefox-2.0 (puede que necesites ayuda en Internet).




Como podemos ver, SystemRescueCD tiene todas las herramientas que necesitamos para recuperar nuestra información después de un fallo en nuestro sistema, esperamos que nunca tengas la necesidad de utilizarlo, pero siempre es recomendable tener este tipo de herramientas a la mano en caso

15:40 / Publicado por Alex / comentarios (1)

METAMETALES



Descubierto por científicos estadounidense, quienes lograron hacer invisibles objetos en dos dimensiones y se aprestan a conseguirlo con los tridimensionales.
De acuerdo a los investigadores, se viene perfeccionando la manera en que los objetos tridimensionales parezcan invisibles: cubriéndolos de un material especial que reorienta los rayos de luz que caen sobre ellos.
Las nuevas investigaciones permiten a los científicos avanzar en el propósito de ocultar a personas y objetos de la luz visible. Eso puede tener usos numerosos, entre ellos, en el campo militar, informan AP y Terra.
Los seres humanos pueden ver objetos porque diseminan la luz que los toca, reflejando parte de ella, de manera que los ojos pueden verla.
Para hacer a los objetos invisibles, se usan los llamados metamateriales, que desvían ondas lanzadas por los radares, o la luz, en un efecto similar al agua que fluye en torno a una roca en un arroyo.
Los metamateriales son mezclas de metal y materiales de placas con circuitos impresos tales como cerámica, teflón o fibra compuesta. Están diseñados para desviar la luz visible de una manera que los materiales ordinarios no pueden hacerlo. Los científicos intentan usarlos para desviar la luz en torno a objetos, a fin de que no creen reflexión ni sombras.
El matemático Sébastien Guenneau de la Universidad de Liverpool, y Frédéric Zolla y André Nicolet, de la Universidad de Marsella, han demostrado, aplicando un modelo informático especialmente diseñado, denominado GETDP, que también se puede lograr hacer invisibles a objetos a corta distancia, cuando la luz viaja en ondas en lugar de en haces.


Un modelo informático distinto a cualquier otro, y diseñado por un matemático de la Universidad de Liverpool, ha demostrado que es posible hacer que ciertos objetos, como los aviones y los submarinos, resulten invisibles a corta distancia.
Esa tecnología difiere de la llamada "tecnología sigilosa". Ese tipo de tecnología, si bien no hace invisible un avión, reduce el espectro disponible al radar, haciendo más difícil seguirle el rastro.

·÷±‡± HisToria del Internet ±‡±÷·

14:26 / Publicado por Alex / comentarios (1)

LA HISTORIA DEL


INTERNET






A principios de los años 60´s la principal fábrica de ideas de America "RAND CORPORATION" se enfrento a un gran problema estratégico, ¿Cómo se podrían comunicar con éxito las autoridades norteamericanas tras una guerra nuclear?
Entonces necesitaría una red de comando y control enlazada de ciudad a ciudad de estado a estado de base a base. Teniendo en cuenta la posible destrucción siendo vulnerable al impacto de bombas atómicas. La propuesta de RAND ideada por Paúl Baran publicada en 1964 se basaba en:
La red no tendría autoridad central, además seria diseñada para operar aun echa pedazos, todos los nodos serian iguales entre si cada nodo con autoridad para crear, pasar y recibir mensajes. Los mensajes se dividían en paquetes, cada paquete dirigido por separado. Cada paquete saldría de un nodo específico y terminaría en un nodo separado.
Entonces diseño una forma de comunicación el Transmisión Control Protocol y el Internet Protocol (TCP/IP) fueron desarrollados para proveer rápida Comunicación entre dos dispositivos de red. Estos protocolos de red fueron desarrollados para proveer un enlace de comunicación, aún si algunos de los enlaces entre los dispositivos llegaran a fallar.
En 1968 la MIT (Instituto de Tecnología de Massachusetts) UNCLA (Universidad Nacional de California Los Angeles) y El Laboratorio Nacional de Física de Inglaterra preparo la primera red de prueba basada en estos principios.
La ARPA (Agencia de Proyectos de Investigación del Pentágono) financio un proyecto mas ambicioso por la necesidad de un buen entramado para proyectos de investigación y desarrollo contando con (nodos) superordenadores de alta velocidad en 1969 uno de estos fue instalado en UNCLA en ese mismo año ya contaba con 4 nodos que transferían información de alta velocidad de aquí surge la primera red llamada ARPANET. Gracias a estos científicos e investigadores podían compartir las facilidades de ordenadores a la distancia.
Década de los '70

Durante los 70s, instituciones educativas y de investigación comenzaron a conectarse a ARPANET para crear una Comunidad de redes. A finales de los 70s, TCP/IP comenzó a ser el protocolo oficial usado en Internet. Ya era muy codiciado y ya contaba con 37 nodos APARNET pero la red se convirtió en una oficina de correos electrónica

Década de los '80

En los 80s, la Fundación Nacional de Ciencia de los E.U. reemplazó ARPANET con una red de alta velocidad. Esta Es la red que actualmente sirve como enlace principal (backbone) para la actual Internet. Cuando ARPANET fue Usado en 1969, consistía solo de 213 Host registrados. En 1986 existían más de 2,300 Host.
El desarrollo de otros protocolos y otras tecnologías, como el World Wide Web, ha Contribuido a éste crecimiento. En 1984 la Fundación Nacional para la Ciencia [National Science Foundation, NSF] entró en escena a través de su Oficina de Computación Científica Avanzada [Office of Advanced Scientific Computing]. La nueva NSFNET supuso un paso muy importante en los avances técnicos conectando nuevas, más rápidas y potentes supercomputadoras a través de enlaces más amplios, rápidos, actualizados y expandidos según pasaban los años, 1986, 1988 y 1990. Otras agencias gubernamentales también se unieron: NASA, los Institutos Nacionales de la Salud, el Departamento de Energía, cada uno manteniendo cierto poderío digital en la confederación Internet. Los nodos de esta creciente red de redes se dividían en subdivisiones básicas. Los ordenadores extranjeros y unos pocos americanos eligieron ser denominados según su localización geográfica. Los otros fueron agrupados en los seis “dominios” básicos de Internet: gov, mil, edu, com, org y net (estas abreviaturas tan sosas pertenecen al estándar de los protocolos TCP/IP). Gov, Mil y Edu definen al gobierno, militares e instituciones educativas, las cuales fueron, por supuesto, pioneras de la ARPANET que comenzó como un experimento de alta tecnología en seguridad nacional. Com, sin embargo, definía a instituciones “comerciales”, que enseguida entraron a la red como toros de rodeo rodeadas por una nube de entusiastas organizaciones sin ánimo de lucro (los ordenadores tipo “net” servían como pasarelas entre redes). La red ARPANET propiamente dicha expiró en 1989 como víctima feliz de su éxito abrumador. Sus usuarios apenas se dieron cuenta, pero las funciones de ARPANET no solo continuaron sino que mejoraron firmemente. El uso del estándar TCP/IP para redes es ahora algo global.

Década de los '90

A inicios de los 90s, la Fundación Nacional de ciencia de los E.U. transfirió el mantenimiento y supervisión de la
Internet a fundaciones privadas y corporativas. Actualmente, la Internet tiene varios millones de computadoras Conectadas a nivel mundial.
Año 2000, fue igualmente sustituido por el énfasis en el ordenamiento por relevancia, los métodos con los cuales los buscadores intentan colocar los mejores resultados primero. El ordenamiento por relevancia se convirtió por primera vez en una cuestión importante alrededor de 1996, cuando se hizo evidente que no era práctico revisar listas completas de resultados. Por consiguiente, los algoritmos para el ordenamiento por relevancia se han ido mejorando continuamente. El método PageRank de Google para ordenar los resultados ha recibido la mayoría de la prensa, pero todos los principales buscadores refinan continuamente sus metodologías de ordenamiento con el objetivo de mejorar el orden de los resultados. En 2006, la posición en los buscadores es más importante que nunca, tanto que la industria ha desarrollado ("posicionadores en buscadores") para ayudar a los desarrolladores web a mejorar su posición en el buscador, y se ha desarrollado un cuerpo entero de jurisprudencia alrededor de cuestiones que afectan al posicionamiento en los buscadores, como el uso de marcas registradas en metatags. La venta de posiciones en buscadores por algunos buscadores ha creado también controversia entre bibliotecarios y defensores de los consumidores.

I
N
T
E
R
N
E
T