"APLICACIONES PARA DISPOSITIVOS"

09.06.2014 18:45

¿Qué es una plataforma abierta?

Una plataforma es un sistema que sirve como base para hacer funcionar determinados módulos dehardware o de software con los que es compatible. Dicho sistema está definido por un estándar alrededor del cual se determina una arquitectura de hardware y una plataforma de software (incluyendo entornosde aplicaciones). Al definir plataformas se establecen los tipos de arquitectura, sistema operativo, lenguaje de programación o interfaz de usuario compatibles.
Abierto: se pueden modificar paraadaptarse a necesidades específicas. ¿No te gusta algo? Lo cambias y ya. 
-RedHat (Fedora)
-Android
-Nokia S60
-Debian (Ubuntu, Frespire, etc.
-FreeBSD

Android prometió un lanzamiento open source de su plataforma completa, incluyendo el sistema operativo, librerías, entorno de aplicación y algunas aplicaciones estándares. 

 

¿Por qué una plataforma abierta es tan importante?

 

Retrocediendo en el tiempo, hasta hace muy poco, las plataformas móviles han sido de código propietario con una integración del hardware muy ajustado, como, por ejemplo, el iPhone. En este modelo, el control de la innovación del software está firmemente sujeto a los fabricantes del dispositivo quienes son los que diseñan dichos dispositivos según las necesidades de los operadores de redes. Es fácil ver entonces cómo aplicaciones no comerciales pierden cuando los fabricantes de móviles desarrollan un balanceo delicado entre la satisfacción del usuario final y los ingresos de los operadores de red. Las plataformas CERRADAS dejan fuera de control al usuario ya que es el fabricante el que decide qué se le permite al usuario hacer con el dispositivo móvil. 



¿Qué es una plataforma cerrada?

Cerrados:tienes que esperar a que hagan los arreglos. Por ejemplo los usuarios de iPhone tienen que esperar a que Apple resuelva los problemas de señal o de seguridad. Los de Windows por igual.
-Windows-Mac
-DOS
-UNIX
-BSD

Una plataforma, jardín amurallado cerrado o ecosistema cerrado es un sistema de software que el operador o proveedor de servicios tiene el control sobre las aplicaciones, los contenidos y los medios de comunicación y restringe el acceso conveniente a las aplicaciones o contenidos no autorizados. Esto está en contraste con una plataforma abierta, donde los consumidores tienen acceso sin restricciones a las aplicaciones y contenido.

Por ejemplo, en las telecomunicaciones, los servicios y aplicaciones accesibles en cualquier teléfono móvil en cualquier red inalámbrica dada estaban estrechamente controlados por los operadores de telefonía móvil. Los operadores móviles limitan las aplicaciones y desarrolladores que estaban disponibles en los portales principales de los usuarios y las páginas de inicio. Este ha sido un tema central de restringir el sector de las telecomunicaciones, ya que los desarrolladores se enfrentan a enormes obstáculos para hacer que sus aplicaciones estén disponibles para los usuarios finales. En un ejemplo más extremo, con la década de 1970 sistema telefónico Americana de pre-desregulado, "mA Bell" propiedad prácticamente todo el hardware y todas las señales, y prácticamente incluso las palabras en sus cables. Las palabras no llegaron a ser tuyo hasta que abandonaron la Campana auricular Ma y entraron en su oído. Es ilegal que el usuario incluso monitorear o grabar las señales cerca de "su propio" teléfono con un dispositivo de pic-up magnético no-Bell. En ese caso, se trataba de un monopolio gubernamental abiertamente sancionada y regulada.

 

El éxito de las plataformas de aplicaciones móviles

En los últimos años se ha producido un crecimiento exponencial de las ventas de smartphones, llegando a cifras tales como la venta de 1 millón de unidades de iPhone 4S en 24 horas en EEUU. En 2011 y por primera vez, la venta de smartphones ha superado en cantidad a la venta conjunta de PCs (sobremesa y portátiles), tablets y netbooks, llegando a los 500 millones de terminales. Este es uno de los motivos por el que las aplicaciones para dispositivos móviles se han revelado como un mercado emergente con grandes posibilidades.

En términos de número de aplicaciones y negocio generado, el mercado actual de las aplicaciones móviles está liderado por Apple y Google, con iOS y Android como sistemas operativos, y con App Store y Play Store como plataformas de venta, respectivamente.  De hecho, Gradiant lleva tiempo desarrollando proyectos en ambas plataformas, con aplicación en distintos ámbitos tales como la realidad aumentada, el reconocimiento biométrico y la TV social. La experiencia de Gradiant en este sentido ha permitido constatar que, aun compartiendo filosofías muy similares, ambas plataformas presentan importantes diferencias que condicionan el desarrollo de las aplicaciones y el alcance que tienen entre los usuarios finales.

Android es el S.O. desarrollado por Open Handset Alliance, organización liderada por Google. La principal característica de Android es que se desarrolla de forma abierta, lo que permite a los desarrolladores crear librerías y programas generados en otros lenguajes y compilarlos en la arquitectura ARM de los terminales Android como si se tratasen de librerías nativas del sistema, permitiendo mejorar el sistema constantemente.

La oferta de teléfonos con Android es amplia y  variada tanto en marcas como en precios, existiendo ya más de 100 dispositivos en el mercado (entre smartphones y tablets) que funcionan sobre este sistema operativo. Además, el gran éxito de ventas sitúa a Android como el sistema operativo con mayor número de terminales vendidos en 2011. Sin embargo, esta gran diversidad a nivel hardware está generando también una gran fragmentación de versiones de Android, debido a la necesidad de hacer adaptaciones a cada dispositivo concreto. Esta situación se traduce en un incremento en la complejidad del desarrollo de aplicaciones, sobre todo a la hora de garantizar fiabilidad, soporte y experiencia de uso adecuada, características que son responsabilidad del desarrollador, debido a la inexistencia de revisiones y controles a la hora de publicar aplicaciones en la Play Store.

iOS (iPhone OS), el sistema operativo desarrollado por Apple Inc. para iPhone, iPod Touch, iPad y Apple TV, es una evolución de Darwin BSD y por lo tanto un sistema operativo Unix. A diferencia de Android, iOS está desarrollado únicamente para unos pocos dispositivos diseñados por la propia Apple, constituyendo así un “ecosistema cerrado”. Sin embargo, de cara a los desarrolladores esta característica proporciona una ventaja, ya que las herramientas de diseño de aplicaciones y frameworks proporcionadas por Apple están optimizadas para dicho hardware,  simplificando así las tareas de desarrollo y contribuyendo a garantizar la fiabilidad de las aplicaciones. Además, las aplicaciones para iOS se distribuyen por medio de la App Store, pasando estrictos controles de calidad antes de ser publicadas.

Durante el 2011, Windows Phone se ha incorporado a la lista de S.O. para dispositivos móviles. Desarrollado por Microsoft, es el sucesor de la plataforma Windows Mobile. Actualmente cuenta con 70.000 aplicaciones, muy por debajo de sus competidores Android e iOS, aunque el notable crecimiento que está experimentando será motivo de atención durante los próximos meses.

Progreso y desarrollo de la Web

La Web ha evolucionado mucho desde su concepción original, páginas de texto estático hasta la actualidad, donde podemos encontrar desde aplicaciones de escritorio hasta redes sociales integradas en la Web. En este artículo trataremos este progreso que ha convertido la Web en la herramienta que es hoy en día.

Te puede interesar leer antes la introducción a la historia de Internet.La transición de la Web, de páginas estáticas a páginas dinámicas

Tal como hemos comentado, la web se creó para el intercambio de documentos. El acceso a dichos documentos se realiza mediante una dirección llamada URL (Uniform Resource Locator), que suele escribirse en una zona especial del navegador llamada “barra de direcciones”, al escribir dicha dirección, el software navegador solicita el documento al servidor Web que lo contiene, lo descarga del servidor y finalmente lo muestra al usuario.

Estos documentos se escriben en un formato especial, llamado hipertexto y tienen una característica que ha sido fundamental en el desarrollo de la web: los enlaces. Un documento puede contener uno o varios enlaces a otros documentos de la Web, de forma que es posible ir de un documento a otro sin teclear cada vez las direcciones, lo que se conoce como navegar por la Web.

Los dos estándares principales que definen la Web son

El HTTP (HyperText Transfer Protocol), que es el protocolo que permite la recuperación de documentos desde un servidor hacia un navegador.

El HTML (HyperText Markup Language), que es el lenguaje de hipertexto que se usa en la Web.

La organización W3C (World Wide Web Consortium) mantiene los estándares para los documentos, esto es, las diferentes versiones de HTML y otros formatos relacionados, mientras que el protocolo HTTP, al tratarse de un protocolo de comunicaciones sobre la red Internet, se define en el RFC 2616. Desde un punto de vista técnico, hay que destacar que HTTP está construido sobre la capa de transporte TCP de la red IP, comúnmente conocido como TCP/IP.

Hasta este punto, la web se concibe como un sistema estático en el que un autor, escribe un documento en formato HTML y cuelga dicho documento en un servidor Web. El lector tecleará la URL del documento o lo recuperará desde un enlace y el servidor se limitará a coger el documento y enviarlo al lector. Un sistema como este era perfectamente válido en el contexto académico y científico donde fue diseñado, sin embargo, con una pequeña ampliación en el servidor, era posible multiplicar el potencial de la web.

Esta modificación fue la clave para lo que pronto pasó a conocerse como páginas dinámicas. La idea subyacente es que el servidor no envía al lector un fichero de hipertexto directamente, sino que dicho hipertexto se genera a partir de un programa, de manera que el documento se crea en el mismo instante en que el lector lo solicita. Esto ampliaba mucho las posibilidades del momento, era posible guardar los textos en bases de datos y crear las páginas según la necesidad, o simplificar la creación de sitios web complejos. También se añadió el concepto de parámetro en la URL, de forma que esta, además de indicar el documento que se quiere recuperar, indica también unos parámetros que se enviarán al servidor y este podrá usar para crear documentos a medida. Las URL quedaron con el formato:

 

https://www.servidor.com/documento.html?parametro1=valor1¶metro2=valor2

que es el formato que se sigue usando en la actualidad. La primera tecnología que se usó en la creación de páginas dinámicas fue CGI (Common Gateway Interface), que no es más que una extensión de los servidores Web, que permite que un programa escrito en cualquier lenguaje, genere el hipertexto de los documentos. Así las primeras Webs dinámicas funcionaban con programas escritos en lenguajes como C, C++ o Perl.

Muy pronto se empezó a trabajar en lenguajes o plataformas especiales para la Web. Aparecieron iniciativas Open Source como el lenguaje PHP (PHP Hypertext Preprocessor) para la creación de páginas dinámicas, creado inicialmente por Rasmus Lerdorf en 1994, y también iniciativas comerciales como el lenguaje ASP (Active Server Pages) de Microsoft o el concepto JSP/Servlets (Java Server Pages) de Sun Microsystems basado en la plataforma Java.

Estas nuevas tecnologías no solo revolucionaron la Web, también proporcionaron un nuevo mecanismo para crear interfaces gráficas para las aplicaciones tradicionales, lo que pasó a llamarse aplicaciones web, de uso muy extendido hoy en día. Debido al carácter distribuido de la web, escribir aplicaciones con tecnología Web como interfaz gráfica proporciona algunas ventajas a la creación de GUIs (Graphical User Interface) tradicionales, la más destacable de las cuales es que los usuarios no tienen que instalar ningún software, les basta con un navegador para poder acceder a la aplicación. Estas aplicaciones empezaron a instalarse en intranets corporativas y en Internet, mediante el uso de passwords.

Existe una estrecha relación entre las aplicaciones web y los portales Web creados con lenguajes en servidor, ya que un portal se puede considerar una aplicación web de uso público, así, podríamos considerar que la Wikipedia es una aplicación web abierta al público. Es en este punto, casi en los comienzos de la web, donde podemos empezar a hablar de web social, por lo menos desde un punto de vista tecnológico.

La web interactiva

En el apartado anterior, se ha visto la forma como los servidores pasaron de simplemente enviar al programa cliente (navegador) la página que le solicitaban, a ser los propios servidores quienes usando programas especiales, generaban las páginas HTML a medida para cada consulta. También llegó el momento en que ciertas personas de Netscape, vieron que esta metodología tenía sus propias limitaciones.

Efectivamente, usando la tecnología de páginas dinámicas generadas por el servidor, cada vez que en la página debe actualizarse alguna información, o simplemente cada vez que el usuario realiza interacciones, la página se debe volver a bajar del servidor, con lo que este debe volver a generarla. Esto se convierte en consultas innecesarias al servidor, consumiendo recursos y ancho de banda para nada, una aproximación totalmente ineficiente.

Así se llegó a la conclusión de que era necesario un lenguaje de programación que se ejecutara directamente en el navegador, y Brendan Eich de Netscape creó Mocha, que más tarde cambió su nombre a LiveScript, y finalmente en 1995 sería renombrado a JavaScript por cuestiones de marketing, por su similitud con el nombre del lenguaje de programación Java, que estaba de moda en aquel momento. Aunque JavaScript muy a menudo se confunde con Java, estos son dos lenguajes diferentes con filosofías totalmente distintas.

JavaScript fue incorporado al navegador Netscape 2.0B3 en Diciembre de 1995 y muy pronto Microsoft copió la iniciativa, creando un lenguaje de programación casi idéntico al que llamó JScript y que incorporó en su propio navegador Internet Explorer 3.0, en Agosto de 1996.

En 1996 Netscape propuso la estandarización del lenguaje JavaScript y se desarrolló el estándar ECMA-262 que también se conoce como ECMAScript. En la actualidad se están haciendo grandes esfuerzos por hacer cumplir dicho estándar a todos los navegadores, ya que las incompatibilidades existentes entre navegadores, incluso entre distintas versiones de un mismo navegador, ponen trabas importantes al desarrollo de aplicaciones web y de la propia web.

 

Aproximadamente en la misma época que se empezó a extender el lenguaje JavaScript, apareció otro concepto muy importante en la web: la separación del contenido y del estilo o diseño. Cada navegador incorporaba sus propias extensiones para dotar de “estilo” a las páginas web, se entiende por estilo a los colores, lineas, tipos de letra, imágenes y otros adornos que complementan al contenido. Estas extensiones se implementaron directamente sobre el lenguaje HTML, por lo que el contenido (o textos) se mezclaba con todos los aspectos de diseño gráfico en un mismo sitio. La solución a esta ineficiencia fue CSS (Cascading Style Sheets), un lenguaje especial para el estilo, y se reservó HTML solo para los contenidos, de manera que con esta tecnología es posible cambiar todo el aspecto de una página solo modificando su CSS.

Las versiones más recientes de HTML son la 4.01 y XHTML, este último convierte al lenguaje HTML en un dialecto de XML (eXtensible Markup Language) con todas las ventajas que esto supone, como capacidades de validación, intercambio, etc.

AJAX

Si bien JavaScript añade muchas posibilidades de interacción a una página web, el problema de base para el desarrollo de aplicaciones web seguía siendo el mismo, para recuperar alguna información del servidor, aunque solo se tratara de una pequeña porción de una página, era necesario volver a enviar una petición al servidor y eso implicaba volver a cargar toda la página.

Así, Microsoft añadió un objeto ActiveX a su navegador Internet Explorer que permitía realizar una petición a un servidor remoto sin necesidad de recargar la página entera. El objeto en cuestión se llama Microsoft.XMLHTTP. Netscape y el proyecto Mozilla añadieron un objeto similar a sus navegadores: XMLHttpRequest, que realiza la misma función.

Con esta nueva posibilidad, un programa JavaScript es capaz de recuperar información de un servidor web en formato XML o en texto llano, y luego tratarla y mostrarla en la página sin necesidad de recargar la página completa. Esto añade grandes posibilidades de interacción a la web, como ejemplo de lo que es posible hacer con AJAX, puede echarse un vistazo al portal de correo electrónico web de Yahoo!, toda la interfaz utiliza tecnología YUI (Yahoo! User Interface), una librería de uso público creada por Yahoo! basada íntegramente en JavaScript y AJAX.

La Web 2.0

Las tecnologías mencionadas en los puntos anteriores son una de las claves que han permitido el desarrollo de la web social. Se ha "abierto" la web, de forma que cualquier usuario es capaz de añadir contenidos a las páginas, sin necesidad de tener acceso directo al servidor. Los programas que permiten esto se llaman CMS (Content Management Systems) o Gestores de Contenidos, y son posibles gracias a la adecuada combinación de las múltiples tecnologías mencionadas. Un CMS no deja de ser una aplicación web y es posible crearlo con cualquiera de los lenguajes de servidor existentes. Sin embargo, el lenguaje más común con el que se crean sitios públicos es PHP, el lenguaje con que funciona Wikipedia y muchos otros portales. JSP de Sun Microsystems y ASP se usan mucho en software comercial, tanto para CMS privados como para el desarrollo de aplicaciones web.

Otra tecnología que cabe destacar es la redifusión de contenidos. Consiste en poner una parte de los contenidos de una web en un formato especial, como RSS, de forma que sean fácilmente accesibles para otro programa. El programa “lector” se suele llamar agregador, y se limita a recuperar el contenido RSS de uno o más sitios web y publicarlos en otra página web o en un programa de usuario.

 

Los formatos más conocidos para redifusión son RSS (Really Simple Syndication o Redifusión Realmente Simple) y Atom. Ambos son dialectos de XML de forma que pueden ser validados, generados y procesados automáticamente de una manera muy sencilla y estandarizada.

Destacar que uno de los avances que hemos mencionado respecto de las aplicaciones web, el hecho de que no es necesaria la instalación de ningún software adicional, es también aplicable y una de las causas del éxito de la Web Social o Web 2.0. El usuario solo necesita un navegador para poder convertirse en editor de contenidos, usando las herramientas que los portales Web 2.0 le ofrecen. La tarea de mantener equipos potentes y actualizados pasa a recaer más sobre los ISPs, que deben hacer frente a esta nueva avalancha de información, ofreciendo mayores capacidades en sus servidores y el ancho de banda necesario para todo el intercambio de información.

Red tipo "grupo de trabajo"

Cuando se usa y que es:

Es una red pequeña que no suele superar las 10 maquinas. Estas se las conecta punto a punto, es decir una computadora va conectada a la otra sin pasar por una computadora central.

Lo que se suele utilizar para conectar mas de dos computadoras es un Switch o Hub (dos nombres que indican lo mismo).Es de notar que es una red económica de baja seguridad, pero muy utilizada. Es de baja seguridad porque en principio todas las computadoras que forman el grupo de trabajo tienen acceso a todas las demás.

Su nombre grupo de trabajo es bien ilustrativo: todos pueden aportar y toman información del grupo sin que halla una computadora central. Todas tienen los mismos privilegios.

Grupos de trabajo en una red Lan

Se pueden utilizar también sub redes tipo "grupos de trabajo". Por ejemplo: toda una red en un negocio con dos o tres "grupos de trabajo" en distintos sectores que podrían ser con dos, tres o mas computadoras.Por ejemplo, un grupo de trabajo en atención al cliente, otro en ventas, etc. Pero ahora la diferencia y porque digo red Lan (de área local) al menos una computadora o un switch de cada grupo de trabajo se lo conectaría con una computadora principal (o mas) llamado servidor.

Como principal desventaja de un grupo de trabajo, se podría mencionar, el no contar con una computadora principal a la cual recurren todos o que controla a todo el trafico. Al carecer de una computadora central la red tiene la ventaja de ser mas económica y la desventaja de ser mas difícil de administrar por un "encargado de la red" o "administrador" y la de volverse lenta si todos los integrantes de la red necesitan mover información al mismo tiempo de una maquina a otra.

Dominio de Internet

Un dominio de Internet es una red de identificación asociada a un grupo de dispositivos o equipos conectados a la red Internet.

El propósito principal de los nombres de dominio en Internet y del sistema de nombres de dominio (DNS), es traducir las direcciones IP de cada nodo activo en la red, a términos memorizables y fáciles de encontrar. Esta abstracción hace posible que cualquier servicio (de red) pueda moverse de un lugar geográfico a otro en la red Internet, aún cuando el cambio implique que tendrá una dirección IP diferente.1

Sin la ayuda del sistema de nombres de dominio, los usuarios de Internet tendrían que acceder a cada servicio web utilizando la dirección IP del nodo (por ejemplo, sería necesario utilizar https://192.0.32.10 en vez de https://example.com). Además, reduciría el número de webs posibles, ya que actualmente es habitual que una misma dirección IP sea compartida por varios dominios.

¿Qué es un dominio?

Un dominio en términos generales es un nombre que puede ser alfanumérico que generalmente se vincula a una dirección física de una computadora o dispositivo electrónico.

Generalmente se utilizan para representar las direccion de las páginas web. Puesto que Internet se basa en direcciones IP (Protocolo de Internet) que en terminos simples se puede decir que son los números de conexión identifican a cada computadora conectada a internet.

¿Cómo funciona un dominio?

Para explicar el funcionamiento expondré este simple ejemplo, la dirección IP de mi página web es “110.247.125.147″ pero este número de conexión es muy complejo y largo, así que tengo la opción de solicitar el registro del nombre de mi empresa de manera alfabética y lo vinculo a la dirección IP de mi servidor web donde esta almacenada mi página web, así que mis clientes solo visitan webgdl.com, el dominio los reenvía a mi IP y esta los conecta con mi servidor web que responde enviándoles mi página web, todo estos brincos se realizan en décimas de segundo así que pasa desapercibido.

Es como en su teléfono celular por lo general ya no escribimos los numeros de nuestros amigos, solo selecionamos los nombres como: Juan y damos OK, y su teléfono ya sabe a que número conectarse.

¿En que partes se divide un dominio?

Un dominio se compone principalmente de dos partes: el nombre de la organización (webgdl) y el tipo de organización (com). Los tipos de organización más comunes son .COM, .NET  y .ORG, que se refieren a comercial, network y organizaciones.

 

DIFERENTES EQUIPOS DE CONEXIÓN DE REDES

Repeater (Repetidor)

Es un dispositivo electrónico que conecta dos segmentos de una misma red, transfiriendo el tráfico de uno a otro extremo, bien por cable o inalámbrico.

Los segmento de red son limitados en su longitud, si es por cable, generalmente no superan los 100 M., debido a la perdida de señal y la generación de ruido en las líneas.

Con un repetidor se puede evitar el problema de la longitud, ya que reconstruye la señal eliminando los ruidos y la transmite de un segmento al otro.

En la actualidad los repetidores se han vuelto muy populares a nivel de redes inalámbricas o WIFI.

El Repetidor amplifica la señal de la red LAN inalámbrica desde el router al ordenador. Un Receptor, por tanto, actúa sólo en el nivel físico o capa 1 del modelo OSI.

Hub (Concentrador)

Contiene diferentes puntos de conexión, denominados puertos, retransmitiendo cada paquete de datos recibidos por uno de los puertos a los demás puertos. El Hub básicamente extiende la funcionalidad de la red (LAN) para que el cableado pueda ser extendido a mayor distancia, es por esto que puede ser considerado como una repetidor. El Hub transmite los “Broadcasts” a todos los puertos que contenga, esto es, si contiene 8 puertos, todas las computadoras que estén conectadas a dichos puertos recibirán la misma información. Se utiliza para implementar redes de topología estrella y ampliación de la red LAN. Un Hub, por tanto, actúa sólo en el nivel físico o capa 1 del modelo OSI.

Bridge (Puente)

Como los repetidores y los hub, permiten conectar dos segmentos de red, pero a diferencia de ellos, seleccionan el tráfico que pasa de un segmento a otro, de forma tal que sólo el tráfico que parte de un dispositivo (Router, Ordenador o Gateway) de un segmento y que va al otro segmento se transmite a través del bridge. Con un Bridge, se puede reducir notablemente el tráfico de los distintos segmentos conectados a él. Los Bridge actúan a nivel físico y de enlace de datos del modelo OSI en Capa 2. A nivel de enlace el Bridge comprueba la dirección de destino y hace copia hacia el otro segmento si allí se encuentra la estación de destino.

La principal diferencia de un receptor y hub es que éstos hacen pasar todas las tramas que llegan al segmento, independientemente de que se encuentre o no allí el dispositivo de destino.

Switch (Conmutador)

Interconecta dos o más segmentos de red, pasando segmentos de uno a otro de acuerdo con la dirección de control de acceso al medio (MAC). Actúan como filtros, en la capa de enlace de datos (capa 2) del modelo OSI. Las funciones son iguales que el dispositivo Bridge o Puente, pero pueden interconectar o filtrar la información entre más de dos redes. El Switch es considerado un Hub inteligente, cuando es activado, éste empieza a reconocer las direcciones (MAC) que generalmente son enviadas por cada puerto, en otras palabras, cuando llega información al conmutador éste tiene mayor conocimiento sobre qué puerto de salida es el más apropiado, y por lo tanto ahorra una carga (“bandwidth”) a los demás puertos del Switch.

Router (dispositivo de encaminamiento)

Operan entre redes aisladas que utilizan protocolos similares y direcciones o encaminan la información de acuerdo con la mejor ruta posible. La primera función de un router, es saber si el destinatario de un paquete de información está en nuestra propia red o en una remota. Para determinarlo, el router utiliza un mecanismo llamado “máscara de subred”. La máscara de subred es parecida a una dirección IP (la identificación única de un ordenador en una red de ordenadores) y determina a qué grupo de ordenadores pertenece uno en concreto. Si la máscara de subred de un paquete de información enviado no se corresponde a la red de ordenadores de nuestra LAN (red local), el router determinará, lógicamente que el destino de ese paquete está en otro segmento de red diferente o salir a otra red (WAN), para conectar con otro router. Los router pueden estar conectados a dos o más redes a la vez, e implica la realización de tareas que conciernen a los tres niveles inferiores del modelo OSI: físico, enlace de datos y red.

Gateway (Pasarela)

Son router que tienen programas adicionales (correspondientes a niveles de transporte, sesión, presentación y aplicación, del modelo OSI), que permiten interconectar redes que utilizan distintos protocolos: por ejemplo TCP/IP, SNA, NetWare, VoIP. Los Gateway deben desensamblar las tramas y paquetes que le llegan para obtener el mensaje original y a partir de éste volver a reconfigurar los paquetes y las tramas, pero de acuerdo con el protocolo de la red donde se encuentra la estación de destino. En la actualidad los Gateway son muy utilizados en la voz sobre IP (VoIP) entre telefonía convencional, operadoras, ordenadores y telefonía VoIP.

COMANDOS DE CONECTIVIDAD DE REDES

Ping

Un Ping (Packet Internet Gopher) se trata de una utilidad que comprueba el estado de la conexión con uno o varios equipos remotos por medio de los paquetes de solicitud de eco y de respuesta de eco (definidos en el protocolo de red ICMP) para determinar si un sistema IP específico es accesible en una red. Es útil para diagnosticar los errores en redes o enrutadores IP.Muchas veces se utiliza para medir la latencia o tiempo que tardan en comunicarse dos puntos remotos, y por ello, se utiliza entre los aficionados a los juegos en red el término PING para referirse al lago latencia de su conexión.

Netstat

Netstat (network statistics) es una herramienta de línea de comandos que muestra un listado de las conexiones activas de un ordenador, tanto entrante como saliente. Existen versiones de este comando en varios sistemas, como Unix/Linux, Mac OS X, Windows y BeOS.La información que resulta del uso del comando incluye el protocolo en uso, las direcciones IP tanto locales como remotas, los puertos locales y remotos utilizados y el estado de la conexión. Existen, además de la versión para línea de comandos, herramientas con interfaz gráfica (GUI) en casi todos los sistemas operativos desarrollados por terceros.

Dynamic Host Configuration Protocol

DHCP (sigla en inglés de Dynamic Host Configuration Protocol) es un protocolo de red que permite a los nodos de una red IP obtener sus parámetros de configuración automáticamente. Se trata de un protocolo de tipo cliente/servidor en el que generalmente un servidor posee una lista de direcciones IP dinámicas y las va asignando a los clientes conforme éstas van estando libres, sabiendo en todo momento quién ha estado en posesión de esa IP, cuánto tiempo la ha tenido y a quién se la ha asignado después. Provee los parámetros de configuración a las computadoras conectadas a la red informática con el protocolo TCP/IP (Máscara de red, puerta de enlace y otros) y también incluyen mecanismo de asignación de direcciones de IP.

Tracert

Traceroute es una herramienta de diagnóstico de redes que permite seguir la pista de los paquetes que van desde un host (punto de red) a otro. Se obtiene además una estadística del RTT o latencia de red de esos paquetes, lo que viene a ser una estimación de la distancia a la que están los extremos de la comunicación. Esta herramienta se llama traceroute en UNIX y linux, mientras que en Windows se llama tracert. Estas herramientas (traceroute y tracert) son órdenes ejecutables en una consola en modo texto.Tracert utiliza el campo Time To Live (TTL) de la cabecera IP. Este campo sirve para que un paquete

 

Domain Name System.

El Domain Name System (DNS) es una base de datos distribuida y jerárquica que almacena información asociada a nombres de dominio en redes como Internet. Aunque como base de datos el DNS es capaz de asociar distintos tipos de información a cada nombre, los usos más comunes son la asignación de nombres de dominio a direcciones IP y la localización de los servidores de correo electrónico de cada dominio.La asignación de nombres a direcciones IP es ciertamente la función más conocida de los protocolos DNS. Por ejemplo, si la dirección IP del sitio FTP de prox.ve es 200.64.128.4, la mayoría de la gente llega a este equipo especificando ftp.prox.ve y no la dirección IP. Además de ser más fácil de recordar, el nombre es más fiable. La dirección numérica podría cambiar por muchas razones, sin que tenga que cambiar el nombre.Inicialmente, el DNS nació de la necesidad de recordar fácilmente los nombres de todos los servidores conectados a Internet. En un inicio, SRI (ahora SRI International) alojaba un archivo llamado HOSTS que contenía todos los nombres de dominio conocidos (técnicamente, este archivo aún existe - la mayoría de los sistemas operativos actuales todavía pueden ser configurados para revisar su archivo hosts).

Telnet

Telnet (TELecommunication NETwork) es el nombre de un navegador (y del programa informático que implementa el cliente) que sirve para acceder mediante una red a otra máquina, para manejarla como si estuviéramos sentados delante de ella. Para que la conexión funcione, como en todos los servicios de Internet, la máquina a la que se acceda debe tener un programa especial que reciba y gestione las conexiones. El puerto que se utiliza generalmente es el 23. Sólo sirve para acceder en modo terminal, es decir, sin gráficos, pero fue una herramienta muy útil para arreglar fallos a distancia, sin necesidad de estar físicamente en el mismo sitio que la máquina que los tenía. También se usaba para consultar datos a distancia, como datos personales en máquinas accesibles por red, información bibliográfica, etc. Su mayor problema es de seguridad, ya que todos los nombres de usuario y contraseñas necesarias para entrar en las máquinas viajan por la red como texto plano (cadenas de texto sin cifrar). Esto facilita que cualquiera que espíe el tráfico de la red pueda obtener los nombres de usuario y contraseñas, y así acceder él también a todas esas máquinas. Por esta razón dejó de usarse, casi totalmente, hace unos años, cuando apareció y se popularizó el SSH, que puede describirse como una versión cifrada de telnet.

Nslookup

Nslookup es un comando que puede ser utilizado tanto en Windows como en Unix para obtener la dirección IP mediante el DNS.

Contacto

AliciaBacelis.com maldonadoalicia24@gmail.com