Introducción
Los computadores pueden ser separados en software y hardware. El hardware de
computación es la maquina física, que bajo la
dirección de un programa, almacena y manipula los datos. Originalmente,
los calculos fueron hechos por seres humanos, quienes fueron llamados
computadores, como título del trabajo o
profesión. Este artículo cubre los principales desarrollos en la
historia del
hardware de computación, y procura ponerlos en contexto. Para una detallada línea de tiempo vea el
artículo línea de tiempo de la computación. El
artículo Historia de la computación trata de los métodos
previstos para la pluma y el papel, con o sin la ayuda de tablas. Puesto que
las calculadoras digitales confían en el almacenamiento digital, y
tienden a estar limitadas por el tamaño y la velocidad de la memoria, la
historia del almacenamiento de datos del computador esta unido al
desarrollo de las computadoras.
Historia del hardware
El hardware ha sido un componente importante del proceso de calculo y
almacenamiento de datos desde que se volvió útil para que los
valores numéricos fueran procesados y compartidos. El hardware de
computador mas primitivo fue probablemente el palillo de cuenta;1 después
grabado permitía recordar cierta cantidad de elementos, probablemente
ganado o granos, en contenedores. Algo similar se puede encontrar cerca de las
excavaciones de Minoan. Estos elementos parecen haber sido usadas por los
comerciantes, contadores y los oficiales del
gobierno de la época.
Los dispositivosde ayuda provenientes de la computación han cambiado de
simples dispositivos de grabación y conteo al abaco, la regla de
calculo, el computadora analógica y los mas recientes, la
computadora u ordenador. Hasta hoy, un usuario experimentado del abaco
usando un dispositivo que tiene mas de 100 años puede a veces
completar operaciones basicas mas rapidamente que una
persona inexperta en el uso de las calculadoras electrónicas, aunque en
el caso de los calculos mas complejos, los computadores son
mas efectivos que el humano mas experimentado.
Primeros computadores digitales
La era de computar moderno comenzó con un explosivo desarrollo antes y
durante la Segunda Guerra Mundial, a medida que los circuitos
electrónicos, los relés, los condensadores, y los tubos de
vacío reemplazaron los equivalentes mecanicos y los
calculos digitales reemplazaron los calculos analogos. Las
maquinas como el Atanasoff–Berry Computer, Z3, Colossus, y el ENIAC
fueron construidas a mano usando circuitos que contenían relés o
valvulas (tubos de vacío), y a menudo usaron tarjetas perforadas
o cintas perforadas para la entrada y como el medio de almacenamiento principal
(no volatil).
En esta era, un número de diferentes maquinas fueron producidas
con capacidades que constantemente avanzaban. Al principio de este
período, no existió nada que se asemejara remotamente a una
computadora moderna, excepto en los planes perdidos por largo tiempo de Charles
Babbage y las visiones matematicas de Alan Turing y otros. Al final de
la era, habían sido construidosdispositivos como
el EDSAC, y son considerados universalmente como computadores digitales. Definir un solo
punto en la serie, como
la 'primera computadora', pierde muchos sutiles detalles.
El texto escrito por Alan Turing en 1936 probó ser enormemente
influyente en la computación y ciencias de la computación de dos
maneras. Su principal propósito era probar que había problemas
(nombrados el problema de la parada) que no podían ser solucionados por
ningún proceso secuencial. Al hacer eso, Turing proporcionó una
definición de una computadora universal, una construcción que
vino a ser llamada maquina de Turing, un dispositivo puramente
teórico que formaliza el concepto de ejecución de algoritmo,
reemplazando el engorroso lenguaje universal basado en en aritmética de
Kurt Gödel. Excepto por las limitaciones impuestas por sus almacenamientos
de memoria finitos, se dice que las computadoras modernas son Turing completo,
que es como decir que tienen la capacidad de ejecución de algoritmo
equivalente a una maquina universal de Turing. Este tipo limitado de la
cualidad de Turing completo es algunas veces visto como la capacidad umbral que separa las
computadoras de uso general de sus precursores de propósito
específico.
Para que una maquina de computación sea una computadora de
propósito general practica, debe haber algún mecanismo de
lectura/escritura conveniente, como
por ejemplo la cinta perforada. Para la completa versatilidad, la arquitectura
de Von Neumann usa la misma
memoria para almacenar tanto los programas como losdatos; virtualmente todas las
computadoras contemporaneas usan esta arquitectura (o alguna variante).
Mientras que es teóricamente posible implementar una computadora
completa mecanicamente (como
demostró el diseño de Babbage), la electrónica hizo
posible la velocidad y mas adelante la miniaturización que
caracterizan las computadoras modernas.
En la era de la Segunda Guerra Mundial habían tres corrientes paralelas en el desarrollo de la
computadora, y dos fueron ignoradas en gran parte o deliberadamente mantenidas
en secreto. La primera fue el trabajo aleman de Konrad Zuse. La segunda
fue el desarrollo secreto de la computadora Colossus en el Reino Unido. Ninguna
de éstas tuvieron mucha influencia en los varios proyectos de
computación en los Estados Unidos. La tercera corriente de desarrollo de
la computadora, el ENIAC y el EDVAC de Eckert y Mauchly, fue publicada
extensamente.
Tipos de hardware
Las computadoras son aparatos electrónicos capaces de interpretar y
ejecutar instrucciones programadas que consisten en operaciones
aritmetilógicas y de entrada/salida; reciben entradas (datos para su
procesamiento), producen salidas (resultados del procesamiento), procesan y
almacenan información.
Todo sistema informatico tiene componentes hardware dedicados a alguna
de estas funciones:
1. Periféricos de entrada.
2. Periféricos de salida.
3. Periféricos de entrada/salida.
4. Unidad central de procesamiento.
5. Memorias.
Cada dispositivo de entrada es sólo otra fuente de señales
eléctricas; cada dispositivo desalida no es mas que otro lugar al
cual enviar señales (salidas); los dispositivos de almacenamiento y las
memorias son ambas cosas, dependiendo de lo que requiera el programa (operación
de entrada=lectura, operación de salida=escritura).
Periféricos de entrada.
Son los que permiten al usuario que ingrese información desde el
exterior. Entre ellos podemos encontrar: teclado, mouse o ratón,
escaner, SAI (Sistema de Alimentación Ininterrumpida),
micrófono, camara web , lectores de código de barras,
Joystick,camara fotografica,etc.
Periféricos de salida.
Son los que muestran al usuario el resultado de las operaciones realizadas por
el PC. En este grupo podemos encontrar: monitor, impresora, altavoces, etc.
Periféricos de entrada/salida.
Son los dispositivos que pueden aportar simultaneamente
información exterior al PC y al usuario. Así encontramos como
dispositivos/periféricos/unidades de Entrada/Salida las tarjetas de red,
los módems, las unidades de almacenamiento (discos duros, disquetes,
floppy, discos ZIP o las memorias, (USB, flash, etc.).
Unidad central de procesamiento.
Es la computadora real, la 'inteligencia' de un sistema de
computación. La CPU, o procesador, es el componente que interpreta
instrucciones y procesa datos. Es el elemento fundamental, el cerebro de la
computadora. Su papel sería equiparable al de un director de orquesta,
cuyo cometido es que el resto de componentes funcionen correctamente y de
manera coordinada. Las unidades centrales de proceso no sólo
estan presentes en losordenadores personales, sino en todo tipo de
dispositivos que incorporan una cierta 'inteligencia'
electrónica como
pueden ser: televisores, automóviles, calculadores, aviones,
teléfonos móviles, juguetes y muchos mas.
Memorias.
Del inglés Random Access Memory, que
significa memoria de acceso aleatorio, aludiendo a la capacidad que ofrece este
dispositivo para almacenar y/o extraer información de él
(Lectura/Escritura) en cualquier punto o dirección del mismo y en cualquier momento (no
secuencial). Son los dispositivos que permiten el almacenamiento temporal de
información para que la Unidad de Procesamiento pueda ser capaz de
ejecutar sus programas. Existen diferentes tipos de memoria RAM:
• VRAM.
• SIMM.
• DIMM.
• DIP.
• RAM Disk.
• Memoria Caché ó RAM Caché.
• SRAM.
• DRAM.
Perifericos
Un periférico es un dispositivo electrónico físico que se
conecta o acopla a una computadora, pero no forma parte del núcleo basico (CPU,
memoria, placa madre, alimentación eléctrica) de la misma.
Los periféricos sirven para comunicar la computadora con el exterior
(ratón, monitor, teclado, etc) o como
almacenamiento de información (disco duro, unidad de disco
óptico, etc).
Los periféricos suelen poder conectarse a los distintos puertos de la
computadora. En general, éstos pueden conectarse o desconectarse de la
computadora, pero la misma seguiría funcionando, aunque con menos
capacidades.
Los periféricos son parte del
hardware de la computadora, pero no todo hardware es periférico (por ejemplo,
elmicroprocesador, la placa madre, etc. es hardware, pero no son
periféricos).
Los periféricos forman parte de los accesorios o complementos de la
computadora. El término 'accesorio de computadora' incluye a
los periféricos, pero también otros componentes como chips, placas madre, sensores, etc. Por
lo tanto, la palabra accesorios es un término mas amplio que
periféricos.
Historia del software
La historia del software como se ha visto, no surge con los equipos
electrónicos, -aunque es con ellos que adopta el nombre- esta
presente desde el empleo de abacos o sumadoras mecanicas. Sin
embargo, en estos casos, el software no se encuentra incorporado en el equipo.
Es aportado por el operario. La maquina analítica de Charles
Babbage, incidentalmente, tuvo su software, y fue una amiga de éste, la
legendaria lady Lovelace, quien aportó el software que no se
llegó a usar, dado que la maquina nunca se completó. En el
ENIAC el control de las operaciones estaba parcialmente integrado en el equipo.
Dicho control era realizado por un circuito que requería un alambrado
específico para cada aplicación. Imaginemos lo engorroso que
resultaba realambrar el circuito cada vez que cambiaba el uso del ENIAC.
Hasta este momento, no se percibía una diferencia sustancial entre el
equipo y el control de las operaciones. El concepto de programa de control
almacenado en memoria, aportación popularmente atribuida a John von
Neumann, precipitó el desarrollo de software. En éste se
perfilaron dos tendencias de desarrollo: los programas de aplicación y
losde servicio. Estos últimos tenían como propósito facilitar el desarrollo
de programas a partir de programas. Algunos programas de servicio fueron
simples cargadores que permitieron emplear notaciones como el octal o hexadecimal mas
compactas que el binario. Otros como
los ensambladores simplificaron mas el proceso al reemplazar las
notaciones numéricas con los símbolos mnemónicos que
aportaron para describir a cada instrucción de la maquina. El
siguiente paso significativo fue la traducción de fórmulas, que
permitió el desarrollo de la historia del software y la descripción de los
algoritmos con el empleo de expresiones algebraicas.
La primera teoría sobre el software fue propuesta por Alan Turing en su
ensayo de 1935 sobre números computables, con una aplicación
destinada a la toma de decisiones. El término 'software' fue
utilizado por primera vez de forma escrita por John W. Tukey en 1958. ] El
estudio de los campos académicos sobre el software se dividend en
informatica y la ingeniería de software.
Como los
programas cada vez entraban mas en el reino de firmware y el hardware
por si sólo se hacía mas pequeño, mas barato
y mas rapido debido a la ley de Moore, los elementos de la
computación que primero se consideraban software, pasan a ser hardware.
La mayoría de las compañías de hardware hoy en día
tienen mas programadores de software en nómina que
diseñadores de hardware, ya que las herramientas de software han
automatizado muchas de las tareas de los ingenieros de circuitos. Al igual que
la industria automotriz, laindustria del
software ha crecido de unos pocos visionarios que operaban en su garaje con sus
prototipos. Steve Jobs y Bill Gates fueron los Henry Ford y Chevrolet Luis de
sus tiempos. En el caso del desarrollo de software, el despegue final es
generalmente aceptado que se produce con la publicación en la
década de 1980 de las especificaciones para el IBM Personal Computer.
Hoy su movimiento sería visto como
un tipo de público-sourcing.
Hasta ese momento, el software se incluye con el hardware de los fabricantes de
equipos originales (OEM), tales como
Data General, Digital Equipment y de IBM. Cuando un cliente compra una
minicomputadora, esta incluye el software que es instalado por los ingenieros
empleados por el OEM. Las empresas de informatica de hardware, no
sólo incluyen sus paquetes de software, sino que también asesoren
sobre la ubicación de los equipos normalmente en un espacio refrigerado
llamo sala de ordenadores. La mayoría de las empresas tenían su
software en su contabilidad valorados 0 ya que no podían venderlo.
Cuando Data General introdujo su software Data General Nova, una
compañía llamada Digidyne intentó instalar este software
que ya había adquirido en un equipo distinto. Data Gerenal se
negó a darle una licencia para poder hacerlo y fueron a los Tribunales.
La Corte Suprema dijo que si Digidyne había pagado era propietaria de
ese software debía poder instalarlo en el equipo que quisiese, lo que se
llamó Digidyne v. Poco después IBM publicó los registros
de DOS y nació Microsoft. La decisión de laCorte Suprema
permitió valorar el software, patentarlo y comerciar con el. Es
difícil imaginar hoy que una vez la gente sentía que el software
no valía nada sin una maquina. Hay muchas empresas de
éxito hoy en día que venden sólo productos de software,
aunque todavía hay muchos problemas comunes de concesión de
licencias de software debido a la complejidad de los diseños y
documentación, lo que lleva a los trolls de patentes.
Con las especificaciones de software de código abierto y la posibilidad
de concesión de licencias de software, nuevas oportunidades se
levantaron de herramientas de software que luego se convirtieron en el
estandar de facto, como DOS para los sistemas operativos, sino también
diversos programas de procesamiento de texto y hojas de calculo. En un
patrón de crecimiento similar, los métodos de desarrollo de
propiedad se convirtió en la metodología estandar de
desarrollo de software.
Ciclo de vida del software
El término ciclo de vida del
software describe el desarrollo de software, desde la fase inicial hasta la
fase final. El propósito de este programa es definir las distintas fases
intermedias que se requieren para validar el desarrollo de la
aplicación, es decir, para garantizar que el software cumpla los
requisitos para la aplicación y verificación de los
procedimientos de desarrollo: se asegura de que los métodos utilizados
son apropiados.
Estos programas se originan en el hecho de que es muy costoso rectificar los
errores que se detectan tarde dentro de la fase de implementación. El
ciclo devida permite que los errores se detecten lo antes posible y por lo
tanto, permite a los desarrolladores concentrarse en la calidad del software, en los
plazos de implementación y en los costos asociados.
El ciclo de vida basico de un software consta de los siguientes
procedimientos:
• Definición de objetivos: definir el resultado del proyecto y su papel en la estrategia
global.
• Analisis de los requisitos y su viabilidad: recopilar, examinar
y formular los requisitos del
cliente y examinar cualquier restricción que se pueda aplicar.
• Diseño general: requisitos generales de la arquitectura de la
aplicación.
• Diseño en detalle: definición precisa de cada subconjunto
de la aplicación.
• Programación (programación e implementación): es
la implementación de un lenguaje de programación para crear las
funciones definidas durante la etapa de diseño.
• Prueba de unidad: prueba individual de cada subconjunto de la
aplicación para garantizar que se implementaron de acuerdo con las
especificaciones.
• Integración: para garantizar que los diferentes módulos
se integren con la aplicación. Éste es el propósito de la
prueba de integración que esta cuidadosamente documentada.
• Prueba beta (o validación), para garantizar que el software
cumple con las especificaciones originales.
• Documentación: sirve para documentar información
necesaria para los usuarios del
software y para desarrollos futuros.
• Implementación
• Mantenimiento: para todos los procedimientos correctivos (mantenimiento
correctivo) y las actualizacionessecundarias del software (mantenimiento continuo).
El orden y la presencia de cada uno de estos procedimientos en el ciclo de vida
de una aplicación dependen del
tipo de modelo de ciclo de vida acordado entre el cliente y el equipo de
desarrolladores.
Modelos de ciclo de vida
Para facilitar una metodología
común entre el cliente y la compañía de software, los
modelos de ciclo de vida se han actualizado para reflejar las etapas de
desarrollo involucradas y la documentación requerida, de manera que cada
etapa se valide antes de continuar con la siguiente etapa. Al final de cada
etapa se arreglan las revisiones de manera que (texto faltante).
Modelo en cascada
El modelo de ciclo de vida en cascada comenzó a diseñarse en 1966
y se terminó alrededor de 1970. Se define como una secuencia de fases en
la que al final de cada una de ellas se reúne la documentación
para garantizar que cumple las especificaciones y los requisitos antes de pasar
a la fase siguiente:
Modelo V
El modelo de ciclo de vida V proviene del principio que establece que los
procedimientos utilizados para probar si la aplicación cumple las
especificaciones ya deben haberse creado en la fase de diseño.
Software portable
Se dice que un programa informatico (o una aplicación, o un
sistema operativo) es portable cuando se puede hacer funcionar en un sistema
sin haber sido instalado. - Un claro ejemplo de software portable es el que ha
sido desarrollado en lenguaje Java. Ventajas: - Un estudiante puede utilizarlos
independiente del
lugar donde trabajey de si el ordenador tiene o no instalado el programa. - No usa espacio en
el disco. ¿Qué es software portable? - Una aplicación
portatil (un portable) es una aplicación informatica que
puede ser utilizada en cualquier ordenador que posea el sistema operativo
(S.O.) para el que fue programada; no es necesaria la instalación del software o
bibliotecas adicionales en el sistema. - Se conocen con distintos nombres;
portables, software alone, etc. Aunque la definición no es exactamente
la misma su aplicación es muy similar, funcionar sin necesidad de
instalar nada en el S.O. - Se puede utilizar desde un lapiz o pen-drive
USB. Izquierdo y Riaño(2010). EJEMPLOS DE SOFTWARE PORTABLE MPLayer
Portable -> reproductor multimedia GIMP Portable -> retoque
fotografico Sumatra PDF Portable -> lector de PDF Miranda IM Portable
-> mensajería instantanea Izquierdo y Riaño(2010)
OpenOffice.org Portable -> Paquete ofimatico Mas software portable en
https://portableapps.com/ VirtualDub Portable -> Edición de video
Inkscape Portable -> Edición de graficos Firefox Portable
-> navegador de internet Thunderbird Portable -> Gestor correo
electrónico 7-Zip Portable -> Comprimir y descomprimir.
Programas portables o software portable son aquellos programas que se ejecutan
en la pc sin necesidad de instalacion y puedes llevarlos en cualquier
dispositivo de memoria extraible (disquette, pendrive USB, memorias SD, etc).
La configuracion de estos programas se mantiene en el mismo dispositivo
portable, por la que no se modifican ningun archivo de lapc.
Aplicaciones Informaticas
'¿Que son las aplicaciones informaticas?': Son,
aquellos programas que permiten la interacción entre usuario y
computadora (comunicación), dando opción al usuario a elegir
opciones y ejecutar acciones que el programa le ofrece. Existen innumerable
número de tipos de aplicaciones.
Un aplicación, en final es un programa informatico que permite a
un usuario utilizar una computadora con un fin específico. Las
aplicaciones son parte del
software de una computadora, y suelen ejecutarse sobre el sistema operativo.
Una aplicación de software suele tener un único objetivo: navegar
en la web, revisar correo, explorar el disco duro, editar textos, jugar (un
juego es un tipo de aplicación), etc. Una aplicación que posee
múltiples programas se considera un paquete.
Son ejemplos de aplicaciones Internet Explorer, Outlook, Word, Excel, WinAmp,
Aplicaciones Oracle.
En general, una aplicación es un programa compilado, escrito en
cualquier lenguaje de programación. Las aplicaciones pueden tener
distintas licencias de distribución como ser freeware, shareware, trialware, etc.
Las aplicaciones tienen algún tipo de interfaz, que puede ser una
interfaz de texto o una interfaz grafica (o ambas). También hay
que destacar que la distinción entre aplicaciones y sistemas operativos
muchas veces no es clara. De hecho, en algunos sistemas integrados no existe
una clara distinción para el usuario entre el sistema y sus
aplicaciones.
La diferencia entre los programas de aplicación y los de sistema estriba
en que losde sistema suponen ayuda al usuario para relacionarse con el
computador y hacer un uso mas cómo del mismo, mientras los de aplicación
son programas que cooperan con el usuario para la realización de las actividades
mencionadas.
Dentro de los programas de aplicación, puede ser útil una
distinción entre aplicaciones verticales, de finalidad específica
para un tipo muy delimitado de usuarios (médicos, abogados,
arquitectos…), y aplicaciones horizontales, de utilidad para una
amplísima gama de usuarios de cualquier tipo.
Hay muchos campos de en los cuales se pueden encontrar ejemplos de aplicaciones
informaticas.
En la educación. El papel de la computadora ha de definirse dentro de la
metodología actual de la enseñanza. La computadora no puede ni
debe sustituir al maestro en el desempeño de la función docente.
En el uso de las nuevas tecnologías, el maestro asume la responsabilidad
de poner a disposición del alumno las
ventajas que éstas pueden proporcionarle dentro del programa de estudios. Los programas
computacionales de aplicación didactica, exceptuando los
lenguajes de programación, y excluyendo también las aplicaciones
propiamente informaticas como los
procesadores de textos, las bases de datos, las hojas de calculo, etc.,
son designados generalmente como
programas educativos.
Dentro de los programas de aplicación, puede ser útil una
distinción entre aplicaciones verticales, de finalidad específica
para un tipo muy delimitado de usuarios (médicos, abogados,
arquitectos…), y aplicaciones horizontales, deutilidad para una
amplísima gama de usuarios de cualquier tipo.
Hay muchos campos de en los cuales se pueden encontrar ejemplos de aplicaciones
informaticas.
En la educación. El papel de la computadora ha de definirse dentro de la
metodología actual de la enseñanza. La computadora no puede ni
debe sustituir al maestro en el desempeño de la función docente.
En el uso de las nuevas tecnologías, el maestro asume la responsabilidad
de poner a disposición del alumno las
ventajas que éstas pueden proporcionarle dentro del programa de estudios. Los programas
computacionales de aplicación didactica, exceptuando los
lenguajes de programación, y excluyendo también las aplicaciones
propiamente informaticas como los procesadores
de textos, las bases de datos, las hojas de calculo, etc., son
designados generalmente como
programas educativos.
En el Comercio. La informatica es algo mas que ordenadores,
bienvenido a la Tecnología. Equipos portatiles conectados
vía Wifi, o a través de móvil, la oficina móvil,
control del
negocio con camaras web. Un sinfín de utilidades que conviene
conocer, por que se adaptan específicamente a cada negocio, y en muchos
casos a precios asequibles.
Los adelantos tecnológicos logrados por la humanidad en materia de
telematica y telecomunicaciones revolucionaron y cambiaron totalmente la
concepción del comercio tangible y materializado a través del
soporte de papel asegurado por sellos y firmas, surgiendo una nueva concepción
de la expresión grafica y escrita a través de la
utilización de medios no tangibles.Nos encontramos ante un proceso
novísimo de desmaterialización, en el sentido de sustituir el
soporte tradicional del 'papel', mas no de prescindir de lo
material que algunos suelen confundir, pues sabemos que el mundo
electrónico o digital no es uno totalmente intangible. La
informatica ha generado un sin numero de aportes a las ciencias
Económicas y dentro de ellas al area de las finanzas.
En la ciencia. El uso de la informatica como herramienta de ayuda a la medicina es
una realidad en auge. Desde tiempos antiguos muchas de las actividades humanas
se han basado en la repetición, a veces muy gravosa, de actos o
calculos y del mismo modo que se inventaron operaciones matematicas
basicas para simplificarlas, surgió la necesidad de mejorar las
limitadas prestaciones que ofrece la mente del hombre para calcular, a medida
que las diversas ciencias se hicieron mas complejas.
Las actividades en las cuales el ordenador puede colaborar con el personal sanitario,
son muchas y podrían agruparse en tareas técnicas, de
formación, administrativas y de gestión. Su uso en la
mayoría de instrumental médico moderno facilita el
analisis de datos, ondas, imagenes etc. permite utilizar de forma
sencilla y eficiente técnicas complejas, como son la monitorización,
analisis electrocardiografico, TAC, resonancia magnética.
En los últimos años van añadiéndose nuevas
aplicaciones informaticas a la medicina, como son las publicaciones
electrónicas biomédicas, la telemedicina, impulsada por el auge
de INTERNET y su World Wide Web y los registrosinformaticos de la
historia clínica.
Familia de protocolos de Internet
La familia de protocolos de Internet es un conjunto de protocolos de red en los
que se basa Internet y que permiten la transmisión de datos entre
computadoras. En ocasiones se le denomina conjunto de protocolos TCP/IP, en
referencia a los dos protocolos mas importantes que la componen:
Protocolo de Control de Transmisión (TCP) y Protocolo de Internet (IP),
que fueron dos de los primeros en definirse, y que son los mas
utilizados de la familia. Existen tantos protocolos en este conjunto que llegan
a ser mas de 100 diferentes, entre ellos se encuentra el popular HTTP
(HyperText Transfer Protocol), que es el que se utiliza para acceder a las
paginas web, ademas de otros como el ARP (Address Resolution
Protocol) para la resolución de direcciones, el FTP (File Transfer
Protocol) para transferencia de archivos, y el SMTP (Simple Mail Transfer
Protocol) y el POP (Post Office Protocol) para correo electrónico,
TELNET para acceder a equipos remotos, entre otros.
El TCP/IP es la base de Internet, y sirve para enlazar computadoras que
utilizan diferentes sistemas operativos, incluyendo PC, minicomputadoras y
computadoras centrales sobre redes de area local (LAN) y area
extensa (WAN).
TCP/IP fue desarrollado y demostrado por primera vez en 1972 por el
Departamento de Defensa de los Estados Unidos, ejecutandolo en ARPANET,
una red de area extensa de dicho departamento.
La familia de protocolos de Internet puede describirse por analogía con
el modelo OSI(Open System Interconnection), que describe los niveles o capas de
la pila de protocolos, aunque en la practica no corresponde exactamente
con el modelo en Internet. En una pila de protocolos, cada nivel resuelve una
serie de tareas relacionadas con la transmisión de datos, y proporciona
un servicio bien definido a los niveles mas altos. Los niveles
superiores son los mas cercanos al usuario y tratan con datos mas
abstractos, dejando a los niveles mas bajos la labor de traducir los
datos de forma que sean físicamente manipulables.
El modelo de Internet fue diseñado como
la solución a un problema practico de ingeniería.
El modelo OSI, en cambio, fue propuesto como una
aproximación teórica y también como una primera fase en la evolución
de las redes de ordenadores. Por lo tanto, el modelo OSI es mas
facil de entender, pero el modelo TCP/IP es el que realmente se usa. Sirve de
ayuda entender el modelo OSI antes de conocer TCP/IP, ya que se aplican los
mismos principios, pero son mas faciles de entender en el modelo
OSI.
Historia del Protocolo TCP/IP
La Familia de Protocolos de Internet fueron el resultado del trabajo llevado a cabo por la Agencia de
Investigación de Proyectos Avanzados de Defensa (DARPA por sus siglas en
inglés) a principios de los 70. Después de la construcción
de la pionera ARPANET en 1969 DARPA comenzó a trabajar en un gran
número de tecnologías de transmisión de datos. En 1972,
Robert E. Kahn fue contratado por la Oficina de Técnicas de
Procesamiento de Información de DARPA, donde trabajó en
lacomunicación de paquetes por satélite y por ondas de radio,
reconoció el importante valor de la comunicación de estas dos
formas. En la primavera de 1973, Vint Cerf, desarrollador del protocolo de ARPANET, Network Control
Program(NPC) se unió a Kahn con el objetivo de crear una arquitectura
abierta de interconexión y diseñar así la nueva
generación de protocolos de ARPANET.
Para el verano de 1973, Kahn y Cerf habían conseguido una remodelación
fundamental, donde las diferencias entre los protocolos de red se ocultaban
usando un Protocolo de comunicaciones y ademas, la red dejaba de ser
responsable de la fiabilidad de la comunicación, como pasaba en ARPANET,
era el host el responsable. Cerf reconoció el mérito de Hubert
Zimmerman y Louis Pouzin, creadores de la red CYCLADES,
ya que su trabajo estuvo muy influenciado por el diseño de esta red.
Con el papel que realizaban las redes en el proceso de comunicación
reducido al mínimo, se convirtió en una posibilidad real
comunicar redes diferentes, sin importar las características que
éstas tuvieran. Hay un dicho popular sobre el protocolo TCP/IP, que fue
el producto final desarrollado por Cerf y Kahn, que dice que este protocolo
acabara funcionando incluso entre 'dos latas unidas por un
cordón'. De hecho hay hasta una implementación usando
palomas mensajeras, IP sobre palomas mensajeras, que esta documentado en
RFC 1149. 1 2
Un ordenador denominado router (un nombre que fue después cambiado a gateway,
puerta de enlace, para evitar confusiones con otros tipos de Puerta de
enlace)esta dotado con una interfaz para cada red, y envía
Datagramas de ida y vuelta entre ellos. Los requisitos para estos routers
estan definidos en el RFC 1812. 3
Esta idea fue llevada a la practica de una forma mas detallada
por el grupo de investigación que Cerf tenía en Stanford durante
el periodo de 1973 a 1974, dando como resultado la primera
especificación TCP (Request for Comments 675,) 4 Entonces DARPA fue
contratada por BBN Technologies, la Universidad de Stanford, y la University
College de Londres para desarrollar versiones operacionales del protocolo en
diferentes plataformas de hardware. Se desarrollaron así cuatro
versiones diferentes: TCP v1, TCP v2, una tercera dividida en dos TCP v3 y IP
v3 en la primavera de 1978, y después se estabilizó la
versión TCP/IP v4 — el protocolo estandar que
todavía se emplea en Internet.
En 1975, se realizó la primera prueba de comunicación entre dos
redes con protocolos TCP/IP entre la Universidad de Stanford y la University
College de Londres (UCL). En 1977, se realizó otra prueba de
comunicación con un protocolo TCP/IP entre tres redes distintas con
ubicaciones en Estados Unidos, Reino Unido y Noruega. Varios prototipos
diferentes de protocolos TCP/IP se desarrollaron en múltiples centros de
investigación entre los años 1978 y 1983. La migración
completa de la red ARPANET al protocolo TCP/IP concluyó oficialmente el
día 1 de enero de 1983 cuando los protocolos fueron activados permanentemente.5
En marzo de 1982, el Departamento de Defensa de los Estados Unidos
declaró alprotocolo TCP/IP el estandar para las comunicaciones
entre redes militares.6 En 1985, el Centro de Administración de Internet
(Internet Architecture Board IAB por sus siglas en inglés)
organizó un Taller de Trabajo de tres días de duración, al
que asistieron 250 comerciales promocionando así el protocolo lo que
contribuyó a un incremento de su uso comercial.
Ventajas e inconvenientes
El conjunto TCP/IP esta diseñado para enrutar y tiene un grado
muy elevado de fiabilidad, es adecuado para redes grandes y medianas,
así como
en redes empresariales. Se utiliza a nivel mundial para conectarse a Internet y
a los servidores web. Es compatible con las herramientas estandar para
analizar el funcionamiento de la red.
Un inconveniente de TCP/IP es que es mas difícil de configurar y
de mantener que NetBEUI o IPX/SPX; ademas es algo mas lento en
redes con un volumen de trafico medio bajo. Sin embargo, puede ser
mas rapido en redes con un volumen de trafico grande donde
haya que enrutar un gran número de tramas.
El conjunto TCP/IP se utiliza tanto en campus universitarios como
en complejos empresariales, en donde utilizan muchos enrutadores y conexiones a
mainframe o a ordenadores UNIX, así como también en redes pequeñas
o domésticas,en teléfonos móviles y en domótica.
La familia de protocolos de Internet es un conjunto de protocolos de red que
implementa la pila de protocolos en la que se basa Internet y que permiten la
transmisión de datos entre redes de computadoras. En ocasiones se la
denomina conjunto de protocolos TCP/IP,en referencia a los dos protocolos
mas importantes que la componen: Protocolo de Control de
Transmisión (TCP) y Protocolo de Internet (IP), que fueron los dos primeros
en definirse, y que son los mas utilizados de la familia. Existen tantos
protocolos en este conjunto que llegan a ser mas de 100 diferentes,
entre ellos se encuentra el popular HTTP (HyperText Transfer Protocol), que es
el que se utiliza para acceder a las paginas web, ademas de otros
como el ARP (Address Resolution Protocol) para la resolución de
direcciones, el FTP (File Transfer Protocol) para transferencia de archivos, y
el SMTP (Simple Mail Transfer Protocol) y el POP (Post Office Protocol) para
correo electrónico, TELNET para acceder a equipos remotos, entre otros.
El TCP/IP es la base de Internet, y sirve para enlazar computadoras que
utilizan diferentes sistemas operativos, incluyendo PC, minicomputadoras y
computadoras centrales sobre redes de area local (LAN) y area
extensa (WAN). TCP/IP fue desarrollado y demostrado por primera vez en 1972 por
el departamento de defensa de los Estados Unidos, ejecutandolo en
ARPANET, una red de area extensa del departamento de defensa.
La familia de protocolos de internet puede describirse por analogía con
el modelo OSI, que describe los niveles o capas de la pila de protocolos,
aunque en la practica no corresponde exactamente con el modelo en
Internet. En una pila de protocolos, cada nivel soluciona una serie de
problemas relacionados con la transmisión de datos, y proporciona un
servicio bien definido a losniveles mas altos. Los niveles superiores
son los mas cercanos al usuario y tratan con datos mas
abstractos, dejando a los niveles mas bajos la labor de traducir los
datos de forma que sean físicamente manipulables.
El modelo de Internet fue diseñado como
la solución a un problema practico de ingeniería. El
modelo OSI, en cambio, fue propuesto como una
aproximación teórica y también como una primera fase en la evolución
de las redes de ordenadores. Por lo tanto, el modelo OSI es mas
facil de entender, pero el modelo TCP/IP es el que realmente se usa. Sirve de
ayuda entender el modelo OSI antes de conocer TCP/IP, ya que se aplican los
mismos principios, pero son mas faciles de entender en el modelo
OSI.
Niveles en la pila TCP/IP
Hay algunas discusiones sobre como encaja el
modelo TCP/IP dentro del
modelo OSI. Como TCP/IP y modelo OSI no estan delimitados con
precisión no hay una respuesta que sea la correcta.
El modelo OSI no esta lo suficientemente dotado en los niveles
inferiores como
para detallar la auténtica estratificación en niveles:
necesitaría tener una capa extra (el nivel de Interred) entre los
niveles de transporte y red. Protocolos específicos de un tipo concreto
de red, que se sitúan por encima del marco de hardware basico,
pertenecen al nivel de red, pero sin serlo. Ejemplos de estos protocolos son el
ARP (Protocolo de resolución de direcciones) y el STP (Spanning Tree
Protocol). De todas formas, estos son protocolos locales, y trabajan por debajo
de las capas de Intered. Cierto es que situar ambosgrupos (sin mencionar los
protocolos que forman parte del nivel de
Interred pero se sitúan por encima de los protocolos de Interred, como ICMP) todos en la misma capa puede producir
confusión, pero el modelo OSI no llega a ese nivel de complejidad para
ser mas útil como
modelo de referencia.
El siguiente diagrama intenta mostrar la pila TCP/IP y otros protocolos
relacionados con el modelo OSI original:
7 Aplicación ej. HTTP, DNS, SMTP, SNMP, FTP, Telnet, SSH y SCP, NFS,
RTSP, Feed, Webcal
6 Presentación ej. XDR, ASN.1, SMB, AFP
5 Sesión ej. TLS, SSH, ISO 8327 / CCITT X.225, RPC, NetBIOS
4 Transporte ej. TCP, UDP, RTP, SCTP, SPX
3 Red ej. IP, ICMP, IGMP, X.25, CLNP, ARP, RARP, BGP, OSPF, RIP, IGRP, EIGRP,
IPX, DDP
2 Enlace de datos ej. Ethernet, Token Ring, PPP, HDLC, Frame Relay, RDSI, ATM,
IEEE 802.11, FDDI
1 Físico ej. cable, radio, fibra óptica
Normalmente, los tres niveles superiores del modelo OSI (Aplicación,
Presentación y Sesión) son considerados simplemente como el nivel
de aplicación en el conjunto TCP/IP. Como TCP/IP no tiene un nivel de
sesión unificado sobre el que los niveles superiores se sostengan, estas
funciones son típicamente desempeñadas (o ignoradas) por las
aplicaciones de usuario. La diferencia mas notable entre los modelos de
TCP/IP y OSI es el nivel de Aplicación, en TCP/IP se integran algunos
niveles del
modelo OSI en su nivel de Aplicación. Una interpretación
simplificada de la pila se muestra debajo:
5 Aplicación ej. HTTP, FTP, DNS
(protocolos de enrutamiento como BGP yRIP, que
por varias razones funcionen sobre TCP y UDP respectivamente, son considerados
parte del
nivel de red)
4 Transporte ej. TCP, UDP, RTP, SCTP
(protocolos de enrutamiento como OSPF, que funcionen sobre IP, son considerados
parte del nivel de red)
3 Interred Para TCP/IP este es el Protocolo de Internet (IP)
(protocolos requeridos como ICMP e IGMP funcionan sobre IP, pero todavía
se pueden considerar parte del nivel de red; ARP no funciona sobre IP
2 Enlace ej. Ethernet, Token Ring, etc.
1 Físico ej. medio físico, y técnicas de
codificación, T1, E1
El nivel Físico
El nivel físico describe las características físicas de la
comunicación, como las convenciones sobre la naturaleza del medio usado
para la comunicación (como las comunicaciones por cable, fibra
óptica o radio), y todo lo relativo a los detalles como los conectores,
código de canales y modulación, potencias de señal,
longitudes de onda, sincronización y temporización y distancias
maximas. La familia de protocolos de Internet no cubre el nivel
físico de ninguna red; véanse los artículos de
tecnologías específicas de red para los detalles del nivel físico
de cada tecnología particular.
El nivel de Enlace de datos
El nivel de enlace de datos especifica como
son transportados los paquetes sobre el nivel físico, incluido los
delimitadores (patrones de bits concretos que marcan el comienzo y el fin de
cada trama). Ethernet, por ejemplo, incluye campos en la cabecera de la trama
que especifican que maquina o maquinas de la red son las
destinatariasde la trama. Ejemplos de protocolos de nivel de enlace de datos
son Ethernet, Wireless Ethernet, SLIP, Token Ring y ATM.
PPP es un poco mas complejo y originalmente fue diseñado como un
protocolo separado que funcionaba sobre otro nivel de enlace, HDLC/SDLC.
Este nivel es a veces subdividido en Control de enlace lógico (Logical
Link Control) y Control de acceso al medio (Media Access Control)
El nivel de Interred
Como fue definido originalmente, el nivel de red soluciona el problema de
conseguir transportar paquetes a través de una red sencilla. Ejemplos de
protocolos son X.25 y Host/IMP Protocol de ARPANET.
Con la llegada del
concepto de Interred, nuevas funcionalidades fueron añadidas a este
nivel, basadas en el intercambio de datos entre una red origen y una red
destino. Generalmente esto incluye un enrutamiento de paquetes a través
de una red de redes, conocidada como
Internet.
En la familia de protocolos de Internet, IP realiza las tareas basicas
para conseguir transportar datos desde un origen a un destino. IP puede pasar
los datos a una serie de protocolos superiores; cada uno de esos protocolos es
identificado con un único 'Número de protocolo IP'.
ICMP y IGMP son los protocolos 1 y 2, respectivamente.
Algunos de los protocolos por encima de IP como ICMP (usado para transmitir
información de diagnóstico sobre transmisiones IP) e IGMP (usado
para dirigir trafico multicast) van en niveles superiores a IP pero realizan
funciones del nivel de red e ilustran una incompatibilidad entre los modelos de
Internet yOSI. Todos los protocolos de enrutamiento, como
BGP, OSPF, y RIP son realmente también parte del nivel de red, aunque ellos parecen
pertenecer a niveles mas altos en la pila.
El nivel de Transporte
Los protocolos del nivel de transporte pueden
solucionar problemas como
la fiabilidad ('¿alcanzan los datos su destino?') y la
seguridad de que los datos llegan en el orden correcto. En el conjunto de
protocolos TCP/IP, los protocolos de transporte también determinan a que
aplicación van destinados los datos.
Los protocolos de enrutamiento dinamico que técnicamente encajan
en el conjunto de protocolos TCP/IP (ya que funcionan sobre IP) son
generalmente considerados parte del
nivel de red; un ejemplo es OSPF (protocolo IP número 89).
TCP (protocolo IP número 6) es un mecanismo de transporte fiable y
orientado a conexión, que proporciona un flujo fiable de bytes, que
asegura que los datos llegan completos, sin daños y en orden. TCP
realiza continuamente medidas sobre el estado de la red para evitar
sobrecargarla con demasiado trafico. Ademas, TCP trata de enviar
todos los datos correctamente en la secuencia especificada. Esta es una de las
principales diferencias con UDP, y puede convertirse en una desventaja en
flujos en tiempo real (muy sensibles a la variación del retardo) o aplicaciones de enrutamiento
con porcentajes altos de pérdida en el nivel de interred.
Mas reciente es SCTP, también un mecanismo fiable y orientado a
conexión. Esta relacionado con la orientación a byte, y
proporciona múltiples sub-flujosmultiplexados sobre la misma
conexión. También proporciona soporte de multihoming, donde una
conexión puede ser representada por múltiples direcciones IP
(representando múltiples interfaces físicas), así si hay
una falla la conexión no se interrumpe. Fue desarrollado inicialmente
para aplicaciones telefónicas (para transportar SS7 sobre IP), pero
también fue usado para otras aplicaciones.
UDP (protocolo IP número 17) es un protocolo de datagramas sin
conexión. Es un protocolo no fiable (best effort al igual que IP) - no
porque sea particularmente malo, sino porque no verifica que los paquetes
lleguen a su destino, y no da garantías de que lleguen en orden. Si una
aplicación requiere estas características, debe llevarlas a cabo
por sí misma o usar TCP.
UDP es usado normalmente para aplicaciones de streaming (audio, video, etc)
donde la llegada a tiempo de los paquetes es mas importante que la
fiabilidad, o para aplicaciones simples de tipo petición/respuesta como
el servicio DNS, donde la sobrecarga de las cabeceras que aportan la fiabilidad
es desproporcionada para el tamaño de los paquetes.
DCCP esta actualmente bajo desarrollo por el IETF. Proporciona
semantica de control para flujos TCP, mientras de cara al usuario se da
un servicio de datagramas UDP..
TCP y UDP son usados para dar servicio a una serie de aplicaciones de alto
nivel. Las aplicaciones con una dirección de red dada son distinguibles
entre sí por su número de puerto TCP o UDP. Por
convención, los puertos bien conocidos (well-known ports) son asociados
conaplicaciones específicas.
RTP es un protocolo de datagramas que ha sido diseñado para datos en
tiempo real como
el streaming de audio y video que se monta sobre UDP.
El nivel de Aplicación
El nivel de aplicación es el nivel que los programas mas comunes
utilizan para comunicarse a través de una red con otros programas. Los
procesos que acontecen en este nivel son aplicaciones específicas que
pasan los datos al nivel de aplicación en el formato que internamente
use el programa y es codificado de acuerdo con un protocolo estandar.
Algunos programas específicos se considera que se ejecutan en este
nivel. Proporcionan servicios que directamente trabajan con las aplicaciones de
usuario. Estos programas y sus correspondientes protocolos incluyen a HTTP
(HyperText Transfer Protocol), FTP (Transferencia de archivos), SMTP (correo
electrónico), SSH (login remoto seguro), DNS (Resolución de
nombres de dominio) y a muchos otros.
Una vez que los datos de la aplicación han sido codificados en un
protocolo estandar del
nivel de aplicación son pasados hacia abajo al siguiente nivel de la
pila de protocolos TCP/IP.
En el nivel de transporte, las aplicaciones normalmente hacen uso de TCP y UDP,
y son habitualmente asociados a un número de puerto bien conocido
(well-known port). Los puertos fueron asignados originalmente por la IANA.
Internet Protocol
Protocolo de Internet» redirige aquí. Para 'protocolo de
Internet' como
el término genérico, véase Familia de protocolos de
Internet.
Este artículo trata sobre el protocolo para lacomunicación de
datos. Para otros usos de este término,
véase IP.
Internet Protocol (IP)
Familia: Familia de protocolos de Internet
Función: Envío de paquetes de datos tanto a nivel local como a través de
redes.
Última versión: IPv6
__________ ______ ____ _________
Ubicación en la pila de protocolos
Aplicación
http, ftp,
Transporte
TCP, UDP,
Red
IP
Enlace
Ethernet, Token Ring,
FDDI,
__________ ______ ____ _________
Estandares: RFC 791 (1981)
RFC 2460 (IPv6, 1998)
Internet Protocol (en español Protocolo de Internet) o IP es un
protocolo no orientado a conexión, usado tanto por el origen como por el
destino para la comunicación de datos, a través de una red de
paquetes conmutados no fiable y de mejor entrega posible sin garantías.
Los datos en una red basada en IP son enviados en bloques conocidos como paquetes o
datagramas (en el protocolo IP estos términos se suelen usar indistintamente).
En particular, en IP no se necesita ninguna configuración antes de que
un equipo intente enviar paquetes a otro con el que no se había
comunicado antes.
IP provee un servicio de datagramas no fiable (también llamado del mejor esfuerzo (best
effort), lo hara lo mejor posible pero garantizando poco). IP no provee
ningún mecanismo para determinar si un paquete alcanza o no su destino y
únicamente proporciona seguridad (mediante checksums o sumas de
comprobación) de sus cabeceras y no de los datos transmitidos. Por
ejemplo, al no garantizar nada sobre la recepción del paquete, éste podríallegar
dañado, en otro orden con respecto a otros paquetes, duplicado o
simplemente no llegar. Si se necesita fiabilidad, ésta es proporcionada
por los protocolos de la capa de transporte, como TCP.
Si la información a transmitir ('datagramas') supera el
tamaño maximo 'negociado' (MTU) en el tramo de red por
el que va a circular podra ser dividida en paquetes mas
pequeños, y reensamblada luego cuando sea necesario. Estos fragmentos
podran ir cada uno por un camino diferente dependiendo de como estén de
congestionadas las rutas en cada momento.
Las cabeceras IP contienen las direcciones de las maquinas de origen y
destino (direcciones IP), direcciones que seran usadas por los
enrutadores (routers) para decidir el tramo de red por el que reenviaran
los paquetes.
El IP es el elemento común en la Internet de hoy. El actual y mas
popular protocolo de red es IPv4. IPv6 es el sucesor propuesto de IPv4; poco a
poco Internet esta agotando las direcciones disponibles por lo que IPv6
utiliza direcciones de fuente y destino de 128 bits (lo cual asigna a cada
milímetro cuadrado de la superficie de la Tierra la colosal cifra de
670.000 millones de direcciones IP), muchas mas direcciones que las que
provee IPv4 con 32 bits. Las versiones de la 0 a la 3 estan reservadas o
no fueron usadas. La versión 5 fue usada para un protocolo experimental.
Otros números han sido asignados, usualmente para protocolos experimentales,
pero no han sido muy extendidos.
Un protocolo es un método estandar que permite la
comunicación entre procesos (quepotencialmente se ejecutan en diferentes
equipos), es decir, es un conjunto de reglas y procedimientos que deben
respetarse para el envío y la recepción de datos a través
de una red. Existen diversos protocolos de acuerdo a cómo se espera que
sea la comunicación. Algunos protocolos, por ejemplo, se
especializaran en el intercambio de archivos (FTP); otros pueden
utilizarse simplemente para administrar el estado de la transmisión y
los errores (como
es el caso de ICMP), etc.
En Internet, los protocolos utilizados pertenecen a una sucesión de
protocolos o a un conjunto de protocolos relacionados entre sí. Este
conjunto de protocolos se denomina TCP/IP.
Entre otros, contiene los siguientes protocolos:
Protocolos de red
Podemos definir un protocolo como
el conjunto de normas que regulan la comunicación (establecimiento,
mantenimiento y cancelación) entre los distintos componentes de una red
informatica. Existen dos tipos de protocolos: protocolos de bajo nivel y
protocolos de red.
Los protocolos de bajo nivel controlan la forma en que las señales se
transmiten por el cable o medio físico. En la primera parte del curso se estudiaron
los habitualmente utilizados en redes locales (Ethernet y Token Ring).
Aquí nos centraremos en los protocolos de red.
Los protocolos de red organizan la información (controles y datos) para
su transmisión por el medio físico a través de los
protocolos de bajo nivel. Veamos algunos de ellos:
IPX/SPX
IPX (Internetwork Packet Exchange) es un protocolo de Novell que interconecta
redes queusan clientes y servidores Novell Netware. Es un protocolo orientado a
paquetes y no orientado a conexión (esto es, no requiere que se
establezca una conexión antes de que los paquetes se envíen a su
destino). Otro protocolo, el SPX (Sequenced Packet eXchange), actúa
sobre IPX para asegurar la entrega de los paquetes.
NetBIOS
NetBIOS (Network Basic Input/Output System) es un programa que permite que se
comuniquen aplicaciones en diferentes ordenadores dentro de una LAN.
Desarrollado originalmente para las redes de ordenadores personales IBM,
fué adoptado posteriormente por Microsoft. NetBIOS se usa en redes
con topologías Ethernet y token ring. No permite por si mismo un
mecanismo de enrutamiento por lo que no es adecuado para redes de area
extensa (MAN), en las que se debera usar otro protocolo para el
transporte de los datos (por ejemplo, el TCP).
NetBIOS puede actuar como
protocolo orientado a conexión o no (en sus modos respectivos
sesión y datagrama). En el modo sesión dos ordenadores establecen
una conexión para establecer una conversación entre los mismos,
mientras que en el modo datagrama cada mensaje se envía independientemente.
Una de las desventajas de NetBIOS es que no proporciona un marco
estandar o formato de datos para la transmisión.
NetBEUI
NetBIOS Extended User Interface o Interfaz de Usuario para NetBIOS es una
versión mejorada de NetBIOS que sí permite el formato o arreglo
de la información en una transmisión de datos. También
desarrollado por IBM y adoptado después por Microsoft, es actualmente
elprotocolo predominante en las redes Windows NT, LAN Manager y Windows para
Trabajo en Grupo.
Aunque NetBEUI es la mejor elección como protocolo para la comunicación
dentro de una LAN, el problema es que no soporta el enrutamiento de mensajes
hacia otras redes, que debera hacerse a través de otros
protocolos (por ejemplo, IPX o TCP/IP). Un método usual es instalar
tanto NetBEUI como
TCP/IP en cada estación de trabajo y configurar el servidor para usar
NetBEUI para la comunicación dentro de la LAN y TCP/IP para la
comunicación hacia afuera de la LAN.
AppleTalk
Es el protocolo de comunicación para ordenadores Apple Macintosh y viene
incluido en su sistema operativo, de tal forma que el usuario no necesita
configurarlo. Existen tres variantes de este protocolo:
LocalTalk. La comunicación se realiza a través de los puertos
serie de las estaciones. La velocidad de transmisión es pequeña
pero sirve por ejemplo para compartir impresoras.
Ethertalk. Es la versión para Ethernet. Esto aumenta la velocidad y
facilita aplicaciones como
por ejemplo la transferencia de archivos.
Tokentalk. Es la versión de Appletalk para redes Tokenring.
TCP/IP
Es realmente un conjunto de protocolos, donde los mas conocidos son TCP
(Transmission Control Protocol o protocolo de control de transmisión) e
IP (Internet Protocol o protocolo Internet). Dicha conjunto o familia de
protocolos es el que se utiliza en Internet. Lo estudiaremos con detalle en el
apartado siguiente
Protocolo TCP/IP
La suite TCP/IP
Internet es unconglomerado muy amplio y extenso en el que se encuentran
ordenadores con sistemas operativos incompatibles, redes mas
pequeñas y distintos servicios con su propio conjunto de protocolos para
la comunicación. Ante tanta
diversidad resulta necesario establecer un conjunto de reglas comunes para la
comunicación entre estos diferentes elementos y que ademas
optimice la utilización de recursos tan distantes. Este papel lo tiene el
protocolo TCP/IP. TCP/IP también puede usarse como protocolo de comunicación en las
redes privadas intranet y extranet.
Las siglas TCP/IP se refieren a dos protocolos de red, que son Transmission
Control Protocol (Protocolo de Control de Transmisión) e Internet
Protocol (Protocolo de Internet) respectivamente. Estos protocolos pertenecen a
un conjunto mayor de protocolos. Dicho conjunto se denomina suite TCP/IP.
Los diferentes protocolos de la suite TCP/IP trabajan conjuntamente para
proporcionar el transporte de datos dentro de Internet (o Intranet). En otras
palabras, hacen posible que accedamos a los distintos servicios de la Red.
Estos servicios incluyen, como
se comento en el capítulo 1: transmisión de correo
electrónico, transferencia de ficheros, grupos de noticias, acceso a la
World Wide Web, etc.
Hay dos clases de protocolos dentro de la suite TCP/IP que son: protocolos a
nivel de red y protocolos a nivel de aplicacion.
Protocolos a Nivel de Red
Estos protocolos se encargan de controlar los mecanismos de transferencia de
datos. Normalmente son invisibles para el usuario y operan por debajo dela
superficie del
sistema. Dentro de estos protocolos tenemos:
TCP. Controla la división de la información en unidades
individuales de datos (llamadas paquetes) para que estos paquetes sean
encaminados de la forma mas eficiente hacia su punto de destino. En
dicho punto, TCP se encargara de reensamblar dichos paquetes para
reconstruir el fichero o mensaje que se envió. Por ejemplo, cuando se
nos envía un fichero HTML desde un servidor Web, el protocolo de control
de transmisión en ese servidor divide el fichero en uno o mas
paquetes, numera dichos paquetes y se los pasa al protocolo IP. Aunque cada
paquete tenga la misma dirección IP de destino, puede seguir una ruta
diferente a través de la red. Del otro
lado (el programa cliente en nuestro ordenador), TCP reconstruye los paquetes
individuales y espera hasta que hayan llegado todos para presentarnoslos
como un solo
fichero.
IP. Se encarga de repartir los paquetes de información enviados entre el
ordenador local y los ordenadores remotos. Esto lo hace etiquetando los
paquetes con una serie de información, entre la que cabe destacar las
direcciones IP de los dos ordenadores. Basandose en esta información,
IP garantiza que los datos se encaminaran al destino correcto. Los
paquetes recorreran la red hasta su destino (que puede estar en el otro
extremo del
planeta) por el camino mas corto posible gracias a unos dispositivos
denominados encaminadores o routers.
Protocolos a Nivel de Aplicación
Aquí tenemos los protocolos asociados a los distintos servicios de
Internet,como
FTP, Telnet, Gopher, HTTP, etc. Estos protocolos son visibles para el usuario
en alguna medida. Por ejemplo, el protocolo FTP (File Transfer Protocol) es
visible para el usuario. El usuario solicita una conexión a otro
ordenador para transferir un fichero, la conexión se establece, y
comienza la transferencia. Durante dicha transferencia, es visible parte del intercambio entre la maquina del
usuario y la maquina remota (mensajes de error y de estado de la
transferencia, como por ejemplo cuantos bytes del fichero se han
transferido en un momento dado).
Breve Historia del Protocolo TCP/IP
A principios de los años 60, varios investigadores intentaban encontrar
una forma de compartir recursos informaticos de una forma mas
eficiente. En 1961, Leonard Klienrock introduce el concepto de
Conmutación de Paquetes (Packet Switching, en inglés). La idea
era que la comunicación entre ordenadores fuese dividida en paquetes.
Cada paquete debería contener la dirección de destino y
podría encontrar su propio camino a través de la red.
Como ya comentamos en el capítulo anterior, en 1969 la Agencia de
Proyectos de Investigación Avanzada (Defense Advanced Research Projects
Agency o DARPA) del Ejército de los EEUU desarrolla la ARPAnet. La
finalidad principal de esta red era la capacidad de resistir un ataque nuclear
de la URSS para lo que se pensó en una administración
descentralizada. De este modo, si algunos ordenadores eran destruidos, la red
seguiría funcionando. Aunque dicha red funcionaba bien, estaba sujeta a
algunas caidasperiódicas del
sistema. De este modo, la expansión a largo plazo de esta red
podría resultar difícil y costosa. Se inició entonces una
búsqueda de un conjunto de protocolos mas fiables para la misma.
Dicha búsqueda finalizó, a mediados de los 70, con el desarrollo
de TCP/IP.
TCP/IP tenia (y tiene) ventajas significativas respecto a otros protocolos. Por
ejemplo, consume pocos recusos de red. Ademas, podía ser
implementado a un coste mucho menor que otras opciones disponibles entonces.
Gracias a estos aspectos, TCP/IP comenzó a hacerse popular. En 1983,
TCP/IP se integró en la versión 4.2 del sistema operativo UNIX de Berkeley y la
integración en versiones comerciales de UNIX vino pronto. Así es como TCP/IP se
convirtió en el estandar de Internet.
En la actualidad, TCP/IP se usa
para muchos propósitos, no solo en Internet. Por ejemplo, a menudo se
diseñan intranets usando TCP/IP. En tales entornos, TCP/IP ofrece
ventajas significativas sobre otros protocolos de red. Una de tales ventajas es
que trabaja sobre una gran variedad de hardware y sistemas operativos. De este
modo puede crearse facilmente una red heterogénea usando este
protocolo. Dicha red puede contener estaciones Mac, PC compatibles, estaciones
Sun, servidores Novell, etc. Todos estos elementos pueden comunicarse usando la
misma suite de protocolos TCP/IP. La siguiente tabla muestra una lista de
plataformas que soportan TCP/IP:
Plataforma Soporte de TCP/IP
UNIX Nativo
DOS Piper/IP por Ipswitch
Windows TCPMAN por Trumpet Software
Windows 95 Nativo
WindowsNT Nativo
Macintosh MacTCP u OpenTransport (Sys 7.5+)
OS/2 Nativo
AS/400 OS/400 Nativo
Las plataformas que no soportan TCP/IP nativamente lo implementan usando
programas TCP/IP de terceras partes, como puede apreciarse en la tabla
anterior.
Cómo Trabaja TCP/IP
TCP/IP opera a través del
uso de una pila. Dicha pila es la suma total de todos los protocolos necesarios
para completar una transferencia de datos entre dos maquinas (así
como el camino
que siguen los datos para dejar una maquina o entrar en la otra). La
pila esta dividida en capas, como
se ilustra en la figura siguiente:
EQUIPO SERVIDOR O CLIENTE
|
Capa de
Aplicaciones Cuando un usuario inicia una transferencia de datos,
esta capa pasa la solicitud a la Capa de Transporte.
|
Capa de
Transporte La Capa de Transporte añade una cabecera y pasa
los datos a la Capa de Red.
|
Capa de
Red En la Capa de Red, se añaden las direcciones IP de
origen y destino para el enrrutamiento de datos.
|
Capa de
Enlace de Datos Ejecuta un control de errores sobre el flujo de datos
entre los protocolos anteriores y la Capa Física.
|
Capa
Física Ingresa o engresa los datos a través del medio físico,
que puede ser Ethernet vía coaxial, PPP vía módem, etc.
Después de que los datos han pasado a través del proceso ilustrado en la figura anterior,
viajan a su destino en otra maquina de la red. Allí, el proceso
se ejecuta al revés (los datos entran por la capa física y
recorren la pila hacia arriba). Cada capa de la pila puede enviar y recibir
datos desde la capaadyacente. Cada capa esta también asociada con
múltiples protocolos que trabajan sobre los datos.
El Programa Inetd y los Puertos
Cada vez que una maquina solicita una conexión a otra, especifica
una dirección particular. En general, esta dirección
sera la dirección IP Internet de dicha maquina. Pero
hablando con mas detalle, la maquina solicitante especificara
también la aplicación que esta intentando alcanzar dicho
destino. Esto involucra a dos elementos: un programa llamado inetd y un sistema
basado en puertos.
Inetd. Inetd pertenece a un grupo de programas llamados TSR (Terminate and stay
resident). Dichos programas siempre estan en ejecución, a la
espera de que se produzca algún suceso determinado en el sistema. Cuando
dicho suceso ocurre, el TSR lleva a cabo la tarea para la que esta
programado.
En el caso de inetd, su finalidad es estar a la espera de que se produzca
alguna solicitud de conexión del
exterior. Cuando esto ocurre, inetd evalúa dicha solicitud determinando
que servicio esta solicitando la maquina remota y le pasa el
control a dicho servicio. Por ejemplo, si la maquina remota solicita una
pagina web, le pasara la solicitud al proceso del servidor Web.
En general, inetd es iniciado al arrancar el sistema y permanece residente (a
la escucha) hasta que apagamos el equipo o hasta que el operador del sistema finaliza
expresamente dicho proceso.
Puertos. La mayoría de las aplicaciones TCP/IP tienen una
filosofía de cliente-servidor. Cuando se recibe una solicitud de
conexión, inetd inicia un programaservidor que se encargara de
comunicarse con la maquina cliente. Para
facilitar este proceso, a cada aplicación (FTP o Telnet, por ejemplo) se
le asigna una única dirección. Dicha dirección se llama
puerto. Cuando se produce una solicitud de conexión a dicho puerto, se
ejecutara la aplicación correspondiente.
Aunque la asignación de puertos a los diferentes servicios es de libre
elección para los administradores de sistema, existe un estandar
en este sentido que es conveniente seguir. La tabla que se muestra a
continuación presenta un listado de algunas asignaciones
estandar:
Servicio o Aplicación Puerto
File Transfer Protocol (FTP) 21
Telnet 23
Simple Mail Transfer Protocol (SMTP) 25
Gopher 70
Finger 79
Hypertext Transfer Protocol (HTTP) 80
Network News Transfer Protocol (NNTP) 119
Números IP
En el capítulo anterior vimos que una dirección IP
consistía en cuatro números separados por puntos, estando cada
uno de ellos en el rango de 0 a 254. Por ejemplo, una dirección IP
valida sería 193.146.85.34. Cada uno de los números
decimales representa una cadena de ocho dígitos binarios. De este modo,
la dirección anterior sería realmente la cadena de ceros y unos:
11000001.10010010.01010101.00100010
NOTA: Podemos usar la Calculadora de Windows 95 para realizar las conversiones
de binario-decimal y viceversa.
La versión actual del
protocolo IP (la versión 4 o IPv4) define de esta forma direcciones de
32 bits, lo que quiere decir que hay 2^32 (4.294.967.296) direcciones IPv4
disponibles. Esto parece un gran número, perola apertura de nuevos
mercados y el hecho de que un porcentaje significativo de la población
mundial sea candidato a tener una dirección IP, hacen que el
número finito de direcciones pueda agotarse eventualmente. Este problema
se ve agravado por el hecho de que parte del
espacio de direccionamiento esta mal asignado y no puede usarse a su
maximo potencial.
Por otra parte, el gran crecimiento de Internet en los últimos años
ha creado también dificultades para encaminar el trafico entre el
número cada vez mayor de redes que la componen. Esto ha creado un
crecimiento exponencial del
tamaño de las tablas de encaminamiento que se hacen cada vez mas
difíciles de sostener.
Los problemas comentados se han solucionado en parte hasta la fecha
introduciendo progresivos niveles de jerarquía en el espacio de
direcciones IP, que pasamos a comentar en los siguientes apartados. No
obstante, la solución a largo plazo de estos problemas pasa por
desarrollar la próxima generación del protocolo IP (IPng o IPv6) que puede
alterar algunos de nuestros conceptos fundamentales acerca de Internet.
Clasificación del Espacio de Direcciones
Cuando el protocolo IP se estandarizó en 1981, la especificación
requería que a cada sistema conectado a Internet se le asignase una
única dirección IP de 32 bits. A algunos sistemas, como los routers, que
tienen interfaces a mas de una red se les debía asignar una
única dirección IP para cada interfaz de red. La primera parte de
una dirección IP identifica la red a la que pertenece el host, mientras
que lasegunda identifica al propio host. Por ejemplo, en la dirección
135.146.91.26 tendríamos:
Prefijo de Red Número de Host
135.146 91.26
Esto crea una jerarquía del
direccionamiento a dos niveles. Recordemos que la dirección es realmente
una cadena de 32 dígitos binarios, en la que en el ejemplo anterior
hemos usado los 24 primeros para identificar la red y los 8 últimos para
identificar el host.
Clases Primarias de Direcciones. Con la finalidad de proveer la flexibilidad
necesaria para soportar redes de distinto tamaño, los diseñadores
decidieron que el espacio de direcciones debería ser dividido en tres
clases diferentes: Clase A, Clase B y Clase C. Cada clase fija el lugar que
separa la dirección de red de la de host en la cadena de 32 bits.
Una de las características fundamentales de este sistema de
clasificación es que cada dirección contiene una clave que
identifica el punto de división entre el prefijo de red y el
número de host. Por ejemplo, si los dos primeros bits de la
dirección son 1-0 el punto estara entre los bits 15 y 16.
Redes Clase A (/8). Cada dirección IP en una red de clase A posee un
prefijo de red de 8 bits (con el primer bit puesto a 0 y un número de
red de 7 bits), seguido por un número de host de 24 bits.
El posible definir un maximo de 126 (2^7-2) redes de este tipo y cada
red /8 soporta un maximo de 16.777.214 (2^24-2) hosts. Obsérvese
que hemos restado dos números de red y dos números de host. Estos
números no pueden ser asignados ni a ninguna red ni a ningún host
y son usados para propósitosespeciales. Por ejemplo, el número de
host 'todos 0' identifica a la propia red a la que
'pertenece'.
Traduciendo los números binarios a notación decimal, tendríamos
el siguiente rango de direcciones para la redes /8 o clase A:
1.xxx.xxx.xxx hasta 126.xxx.xxx.xxx
Redes Clase B (/16). Tienen un prefijo de red de 16 bits (con los dos primeros
puestos a 1-0 y un número de red de 14 bits), seguidos por un
número de host de 16 bits. Esto nos da un maximo de 16.384 (2^14)
redes de este tipo, pudiéndose definir en cada una de ellas hasta 65.534
(2^16-2) hosts.
Traduciendo los números binarios a notación decimal,
tendríamos el siguiente rango de direcciones para la redes /16 o clase
B:
128.0.xxx.xxx hasta 191.255.xxx.xxx
Redes Clase C (/24). Cada dirección de red clase C tiene un prefijo de
red de 24 bits (siendo los tres primeros 1-1-0 con un número de red de
21 bits), seguidos por un número de host de 8 bits. Tenemos así
2.097.152 (2^21) redes posibles con un maximo de 254 (2^8-2) host por
red.
El rango de direcciones en notación decimal para las redes clase C
sería:
192.0.0.xxx hasta 223.255.255.xxx
Subredes
En 1985 se define el concepto de subred, o división de un número
de red Clase A, B o C, en partes mas pequeñas. Dicho concepto es
introducido para subsanar algunos de los problemas que estaban empezando a
producirse con la clasificación del
direccionamento de dos niveles jerarquicos.
Las tablas de enrutamiento de Internet estaban empezando a crecer.
Los administradores locales necesitaban solicitar otronúmero de red de
Internet antes de que una nueva red se pudiese instalar en su empresa.
Ambos problemas fueron abordados añadiendo otro nivel de
jerarquía, creandose una jerarquía a tres niveles en la
estructura del
direccionamiento IP. La idea consistió en dividir la parte dedicada al
número de host en dos partes: el número de subred y el
número de host en esa subred:
Jerarquía a dos Niveles
Prefijo de Red Número de Host
135.146 91.26
Jerarquía a tres Niveles
Prefijo de Red Número de Subred Número de Host
135.146 91 26
Este sistema aborda el problema del crecimiento de las tablas de enrutamiento,
asegurando que la división de una red en subredes nunca es visible fuera
de la red privada de una organización. Los routers dentro de la
organización privada necesitan diferenciar entre las subredes
individuales, pero en lo que se refiere a los routers de Internet, todas las
subredes de una organización estan agrupadas en una sola entrada
de la tabla de rutas. Esto permite al administrador local introducir la
complejidad que desee en la red privada, sin afectar al tamaño de las
tablas de rutas de Internet.
Por otra parte, sólo hara falta asignar a la organización
un único número de red (de las clases A,B o C) o como mucho unos
pocos. La propia organización se encargara entonces de asignar
dintintos números de subred para cada una de sus redes internas. Esto
evita en la medida de lo posible el agotamiento de los números IP disponibles.
Mascara de Subred
Prefijo de Red extendido. Los routers de Internet usan solamente elprefijo de
red de la dirección de destino para encaminar el trafico hacia un
entorno con subredes. Los routers dentro del entorno con subredes usan el
prefijo de red extendido para encaminar el trafico entre las subredes.
El prefijo de red extendido esta compuesto por el prefijo de red y el
número de subred:
Prefijo de Red Extendido
Prefijo de Red Número de Subred Número de Host
El prefijo de red extendido se identifica a través de la mascara
de subred. Por ejemplo, si consideramos la red clase B 135.146.0.0 y queremos
usar el tercer octeto completo para representar el número de subred,
deberemos especificar la mascara de subred 255.255.255.0
Entre los bits en la mascara de subred y la dirección de Internet
existe una correspondencia uno a uno. Los bits de la mascara de subred
estan a 1 si el sistema que examina la dirección debe tratar los
bits correspondientes en la dirección IP como parte del prefijo de red
extendido. Los bits de la mascara estan a 0 si el sistema debe
considerar los bits como parte del número de host. Esto se ilustra en la
siguiente figura:
prefijo de red nº subred nº host
Dirección IP 135.146.91.26 10000111 10010010 01011011 00011010
Mascara de Subred 255.255.255.0 11111111 11111111 11111111 00000000
prefijo de red extendido
En lo que sigue nos referiremos a la longitud del prefijo de red extendido
mas que a la mascara de subred, aunque indican lo mismo. La
longitud del prefijo es igual al número de bits a 1 contiguos en la
mascara de subred. De este modo, la dirección 135.146.91.26con
una mascara de subred 255.255.255.0 podra expresarse
también de la forma 135.146.91.26/24, lo que resulta mas compacto
y facil de entender.
Caso practico
Pero veamos un caso practico para comprender mejor esta
clasificación con tres niveles jeraquicos. A una
organización se le ha asignado el número de red 193.1.1.0/24
(esto es, una clase C) y dicha organización necesita definir seis
subredes. La subred mas grande puede contener un maximo de 25
hosts.
Primer paso (definir la mascara de subred). Lo primero que debemos hacer
es determinar el número de bits necesarios para definir las 6 subredes.
Dada la naturaleza del sistema de numeración binario esto sólo
puede hacerse tomando múltiplos de 2. Así que cogeremos 2^3=8 y
podemos dejar las 2 subredes restantes previendo un eventual crecimiento de
nuestra red.
Como 8=2^3, se necesitan 3 bits para numerar las 8 subredes. Como estamos
hablando de una clase C ( /24), sumamos 3 y nuestro prefijo de red extendido
sera /27 que en decimal nos daría la mascara
255.255.255.224. Esto se ilustra en la figura siguiente:
prefijo de red bits nº subr bits nº host
193.1.1.0/24= 11000001 00000001 00000001 000 00000
prefijo de red extendido
255.255.255.224= 11111111 11111111 11111111 111 00000
27 bits
NOTA: Para no desanimarse, podemos coger la calculadora y hacer la
conversión de 11100000 a decimal, que dara justamente 224.
Segundo paso (definir los números de subred). Las ocho subredes se numeraran
de 0 a 7. Lo único que tenemos que hacer es colocar la
representación binariade dichos números en el campo bits nº
subred de la primera fila de la figura anterior, y luego traducir las
direcciones binarias a decimal. Quedaría lo siguiente:
Red Base: 11000001.00000001.00000001.00000000=193.1.1.0/24
Subred 0: 11000001.00000001.00000001.00000000=193.1.1.0/27
Subred 1: 11000001.00000001.00000001.00100000=193.1.1.32/27
Subred 2: 11000001.00000001.00000001.01000000=193.1.1.64/27
Subred 3: 11000001.00000001.00000001.01100000=193.1.1.96/27
Subred 4: 11000001.00000001.00000001.10000000=193.1.1.128/27
Subred 5: 11000001.00000001.00000001.10100000=193.1.1.160/27
Subred 6: 11000001.00000001.00000001.11000000=193.1.1.192/27
Subred 7: 11000001.00000001.00000001.11100000=193.1.1.224/27
Tercer paso (definir los números de host). En nuestro ejemplo,
disponemos de 5 bits en el campo bits nº host de cada dirección de
subred. Esto nos da un bloque de 30 (=2^5-2) direcciones de host posibles, que
cubre los 25 que se preveen como maximo. Obsérvese que restamos 2
pues las direcciones de host todos 0 (esta subred) o todos 1 (broadcast) no
pueden usarse. Los host de cada subred se numeran del 0 al 30. Para definir la
dirección asignada al host n de una subred dada, colocaremos la
representación binaria de n en el campo bits nº host y luego
traduciremos la dirección completa a notación decimal. Por
ejemplo, para la subred 2 quedaría:
Subred 2: 11000001.00000001.00000001.01000000=193.1.1.64/24
Host 1: 11000001.00000001.00000001.01000001=193.1.1.64/27
Host 2: 11000001.00000001.00000001.01000010=193.1.1.65/27Host 3:
11000001.00000001.00000001.01000011=193.1.1.66/27
.
.
.
Host 29: 11000001.00000001.00000001.01011101=193.1.1.93/27
Host 30: 11000001.00000001.00000001.01011110=193.1.1.94/27
En el ejemplo anterior, la parte inicial de cada dirección identifica el
prefijo de red extendido, mientras que los dígitos en negrita indican el
campo de 5 bits número de host.
DNS
Como ya comentamos en el capítulo dedicado a Internet, el DNS (Domain
Name System, o Sistema de Nombres de Dominio) es un sistema hace corresponder a
la dirección IP de cada host de Internet un único nombre de
dominio, para que podamos acceder a dicho host con mayor facilidad.
Ademas, veíamos que la estructura de dichos nombres es
jerarquica, algo similar a
Nombre_del_host.Subsubdominio.Subdominio.Dominio. Estudiaremos ahora con
mas detalle este tema. Comenzamos explicando algunos conceptos previos
que nos serviran para comprender mejor el tema.
Nombres de equipos NetBIOS y DNS
En Windows 95 pueden utilizarse dos tipos de nombres para los equipos:
El nombre NetBIOS, que consta de una única parte y que sera el
que indiquemos en la casilla Identificación dentro del cuadro de
dialogo Red en el Panel de control.
El nombre DNS, que consta de dos partes: un nombre de host y un nombre de
dominio, que juntos forman el nombre completo de dominio (FQDN o Fully
Qualified Domain Name). Este nombre se puede indicar en el cuadro de
dialogo Propiedades de TCP/IP accesible también a través
del cuadro de dialogo Red.
Resolución de nombres
En las redes TCP/IP, losordenadores se identifican a través de su
dirección IP. Sin embargo, a los usuarios les resulta mas
facil usar nombres para los ordenadores en vez de números, por lo
que se hace necesario establecer un mecanismo que resuelva nombres en
direcciones IP cuando se soliciten conexiones dando los nombres de los
ordenadores remotos. Esto se conoce como un sistema de resolución de
nombres. En las redes Windows existen diversos sistemas de resolución de
nombres disponibles:
Resolución de nombres por difusión. Cuando un equipo se conecta a
la red, realizara difusiones a nivel IP para registrar su nombre NetBIOS
anunciandolo en la red. Cada equipo en el area de difusión
es responsable de cancelar cualquier intento de registrar un nombre duplicado.
Uno de los problemas existentes en este sistema es que, si la red es grande, se
sobrecargara de difusiones. No obstante, resultara el adecuado en
nuestra Intranet para las conexiones internas.
Servicio de nombres Internet de Windows (WINS, Windows Internet Naming
Service). Utiliza una base de datos dinamica que hace corresponder
nombres de equipos NetBIOS con direcciones IP. Dicha base de datos reside en un
servidor WINS (que sera una maquina con Windows NT server). WINS
reduce el uso de la resolución por difusión y permite a los
usuarios localizar facilmente sistemas en redes remotas.
Resolución de nombres usando el Sistema de nombres de dominio (DNS). DNS
permite resolver nombres DNS a direcciones IP cuando un ordenador se conecta a
ordenadores remotos fuera de la red local (porejemplo, a nodos de Internet).
Necesita un servidor de nombres DNS. En nuestro caso dicho servidor sera
el de Red Canaria, al cual accederemos a través de nuestro router que
actuara como puerta de enlace o gateway para cada estación de
nuestra red local. Para mas detalles sobre DNS ver el apartado
siguiente.
Ficheros LMHOSTS y HOSTS. Ambos ficheros se utilizan en ordenadores locales
para enumerar direcciones IP conocidas de ordenadores remotos junto con sus
nombres de equipo. El fichero LMHOSTS especifica el nombre NetBIOS del
ordenador remoto y su dirección IP. El fichero HOST especifica el nombre
DNS y la dirección IP. Pueden considerarse como equivalentes locales a
los servicios WINS y DNS y pueden usarse para resolver nombres de ordenadores
remotos a direcciones IP cuando los servicios anteriores no estan
disponibles. En nuestro caso, usaremos un fichero HOSTS en cada una de nuestras
estaciones para indicar el nombre y la dirección IP de nuestro servidor
web interno (Servweb), ya que al tener el DNS activado en dichas estaciones
(para acceder a Internet), cuando no estemos conectados dicho DNS no
estara operativo con la consiguiente ralentización en la
resolución del nombre del servidor web interno.
Sistema de nombres de dominio (DNS o Domain Name System)
El DNS es una base de datos distribuida que proporciona un sistema de
nomenclatura jerarquico para indentificar hosts en Internet.
Espacio de nombres de dominio. La base de datos DNS tiene una estructura en
arbol que se llama espacio de nombres de dominio. Cada dominio(o nodo en el
arbol) tiene un nombre y puede contener subdominios. El nombre de dominio
identifica la posición del dominio en el arbol respecto a su dominio principal,
utilizandose puntos para separar los nombres de los nodos. Por ejemplo,
el nombre de dominio rcanaria.es se refiere al subdominio rcanaria
perteneciente al dominio principal es.
Dominios de primer nivel. Los dominios del nivel superior en la base de datos DNS
pueden ser genéricos (com, org, edu, etc.) o territoriales (uk, es,
etc.). Para obtener un listado completo, consultar el capítulo 1. La
administración de dichos dominios se lleva a cabo por un organismo
llamado InterNIC.
Dominios de niveles inferiores y zonas. Por debajo del primer nivel, InterNIC
delega en otras organizaciones la administración del espacio de nombres
de dominio. El arbol DNS queda dividido en zonas, donde cada zona es una unidad
administrativa independiente. Las zonas pueden ser un único dominio o un
dominio dividido en subdominios. Por ejemplo, el dominio rcanaria sería
una zona administrativa del arbol DNS.
Nombres de dominio completos. Un nombre de dominio completo (FQDN o Fully
Qualified Domain Name) se forma siguiendo la ruta desde la parte inferior del
arbol DNS (nombre de host) hasta la raíz de dicho arbol. En el FQDN el
nombre de cada nodo es separado por un punto. Un ejemplo de FQDN sería
www.educa.rcanaria.es.
Servidores de nombres y resolvers. Los servidores DNS o servidores de nombre
contienen información de una parte de la base de datos DNS (zona) para
satisfacerlas demandas de los clientes DNS. Cuando un ordenador cliente
(resolver) solicita una conexión a un ordenador remoto de Internet a
través de su FQDN, el servidor de nombres buscara el FQDN en su
porción de la base de datos DNS. Si esta ahí,
satisfara de inmediato la demanda del resolver. En caso contrario,
consultara a otros servidores de nombres para intentar responder a la
consulta.
¿ Qué es la Computación en Nube ?
La computación en nube es un sistema informatico basado en Internet y
centros de datos remotos para gestionar servicios de información y
aplicaciones. La computación en nube permite que los consumidores y las
empresas gestionen archivos y utilicen aplicaciones sin necesidad de
instalarlas en cualquier computadora con acceso a Internet. Esta
tecnología ofrece un uso mucho mas eficiente de recursos, como
almacenamiento, memoria, procesamiento y ancho de banda, al proveer solamente
los recursos necesarios en cada momento. El término “nube”
se utiliza como una metafora de Internet.
La computación en nube es un sistema informatico basado en Internet y
centros de datos remotos para gestionar servicios de información y
aplicaciones. La computación en nube permite que los consumidores y las
empresas gestionen archivos y utilicen aplicaciones sin necesidad de
instalarlas en cualquier computadora con acceso a Internet. Esta
tecnología ofrece un uso mucho mas eficiente de recursos, como
almacenamiento, memoria, procesamiento y ancho de banda, al proveer solamente
los recursos necesarios en cada momento.
Eltérmino “nube” se utiliza como una metafora de
Internet y se origina en la nube utilizada para representar Internet en los
diagramas de red como una abstracción de la infraestructura que
representa.
Un ejemplo sencillo de computación en nube es el sistema de documentos y
aplicaciones electrónicas Google Docs / Google Apps. Para su uso no es
necesario instalar software o disponer de un servidor, basta con una
conexión a Internet para poder utilizar cualquiera de sus servicios.
El servidor y el software de gestión se encuentran en la nube (Internet)
y son directamente gestionados por el proveedor de servicios. De esta manera,
es mucho mas simple para el consumidor disfrutar de los beneficios. En
otras palabras: la tecnología de la información se convierte en
una servicio, que se consume de la misma manera que consumimos la electricidad
o el agua.
En este tipo de computación todo lo que puede ofrecer un sistema
informatico se ofrece como servicio,1 de modo que los usuarios puedan
acceder a los servicios disponibles 'en la nube de Internet' sin
conocimientos (o, al menos sin ser expertos) en la gestión de los
recursos que usan. Según el IEEE Computer Society, es un paradigma en el
que la información se almacena de manera permanente en servidores de
Internet y se envía a cachés temporales de cliente, lo que
incluye equipos de escritorio, centros de ocio, portatiles, etc.
'Cloud computing' es un nuevo modelo de prestación de servicios
de negocio y tecnología, que permite al usuario acceder a un
catalogo de serviciosestandarizados y responder a las necesidades de su
negocio, de forma flexible y adaptativa, en caso de demandas no previsibles o
de picos de trabajo, pagando únicamente por el consumo efectuado.
El cambio paradigmatico que ofrece computación en nube es que
permite aumentar el número de servicios basados en la red. Esto genera
beneficios tanto para los proveedores, que pueden ofrecer, de forma mas
rapida y eficiente, un mayor número de servicios, como para los
usuarios que tienen la posibilidad de acceder a ellos, disfrutando de la
‘transparencia’ e inmediatez del sistema y de un modelo de pago por
consumo.
Computación en nube consigue aportar estas ventajas, apoyandose sobre
una infraestructura tecnológica dinamica que se caracteriza,
entre otros factores, por un alto grado de automatización, una
rapida movilización de los recursos, una elevada capacidad de
adaptación para atender a una demanda variable, así como virtualización
avanzada y un precio flexible en función del consumo realizado evitando
ademas el uso fraudulento del software y la piratería.
La computación en nube es un concepto que incorpora el software como
servicio, como en la Web 2.0 y otros conceptos recientes, también
conocidos como tendencias tecnológicas, que tienen en común el
que confían en Internet para satisfacer las necesidades de
cómputo de los usuarios
Comienzos
El concepto de la computación en la nube empezó en proveedores de
servicio de Internet a gran escala, como Google, Amazon AWS, Microsoft [1] y
otros que construyeron su propia infraestructura.De entre todos ellos
emergió una arquitectura: un sistema de recursos distribuidos
horizontalmente, introducidos como servicios virtuales de TI escalados
masivamente y manejados como recursos configurados y mancomunados de manera
continua. Este modelo de arquitectura fue inmortalizado por George Gilder en su
artículo de octubre 2006 en la revista Wired titulado Las
fabricas de información. Las granjas de servidores, sobre las que
escribió Gilder, eran similares en su arquitectura al procesamiento
“grid” (red, parrilla), pero mientras que las redes se utilizan
para aplicaciones de procesamiento técnico débilmente acoplados
(loosely coupled), un sistema compuesto de subsistemas con cierta
autonomía de acción, que mantienen una interrelación
continua entre ellos, este nuevo modelo de nube se estaba aplicando a los
servicios de Internet.2
Beneficios
• Integración probada de servicios Red. Por su naturaleza, la
tecnología de 'Cloud Computing' se puede integrar con mucha
mayor facilidad y rapidez con el resto de sus aplicaciones empresariales (tanto
software tradicional como Cloud Computing basado en infraestructuras), ya sean
desarrolladas de manera interna o externa.3
• Prestación de servicios a nivel mundial. Las infraestructuras de
'Cloud Computing' proporcionan mayor capacidad de adaptación,
recuperación de desastres completa y reducción al mínimo
de los tiempos de inactividad.
• Una infraestructura 100% de 'Cloud Computing' permite al
proveedor de contenidos o servicios en la nube prescindir de instalar
cualquiertipo de hardware, ya que éste es provisto por el proveedor de
la infraestructura o la plataforma en la nube. La belleza de la tecnología
de 'Cloud Computing' es su simplicidad… y el hecho de que
requiera mucha menor inversión para empezar a trabajar.
• Implementación mas rapida y con menos riesgos.
Podra empezar a trabajar muy rapidamente gracias a una
infraestructura de 'Cloud Computing'. No tendra que volver a
esperar meses o años e invertir grandes cantidades de dinero antes de
que un usuario inicie sesión en su nueva solución. Sus
aplicaciones en tecnología de 'Cloud Computing' estaran
disponibles en cuestión de días o horas en lugar de semanas o meses,
incluso con un nivel considerable de personalización o
integración.
• Actualizaciones automaticas que no afectan negativamente a los
recursos de TI. Si actualizamos a la última versión de la
aplicación, nos veremos obligados a dedicar tiempo y recursos (que no
tenemos) a volver a crear nuestras personalizaciones e integraciones. La
tecnología de 'Cloud Computing' no le obliga a decidir entre
actualizar y conservar su trabajo, porque esas personalizaciones e
integraciones se conservan automaticamente durante la
actualización.
• Contribuye al uso eficiente de la energía. En este caso, a la
energía requerida para el funcionamiento de la infraestructura. En los
datacenters tradicionales, los servidores consumen mucha mas
energía de la requerida realmente. En cambio, en las nubes, la
energía consumida es sólo la necesaria, reduciendo notablemente
el desperdicio.Desventajas
• La centralización de las aplicaciones y el almacenamiento de los
datos origina una interdependencia de los proveedores de servicios.
• La disponibilidad de las aplicaciones esta ligada a la
disponibilidad de acceso a Internet.
• Los datos 'sensibles' del negocio no residen en las
instalaciones de las empresas por lo que podría generar un contexto de
alta vulnerabilidad para la sustracción o robo de información.
• La confiabilidad de los servicios depende de la 'salud'
tecnológica y financiera de los proveedores de servicios en nube.
Empresas emergentes o alianzas entre empresas podrían crear un ambiente
propicio para el monopolio y el crecimiento exagerado en los servicios.4
• La disponibilidad de servicios altamente especializados podría
tardar meses o incluso años para que sean factibles de ser desplegados
en la red.
• La madurez funcional de las aplicaciones hace que continuamente
estén modificando sus interfaces, por lo cual la curva de aprendizaje en
empresas de orientación no tecnológica tenga unas pendientes
significativas, así como su consumo automatico por aplicaciones.
• Seguridad. La información de la empresa debe recorrer diferentes
nodos para llegar a su destino, cada uno de ellos (y sus canales) son un foco
de inseguridad. Si se utilizan protocolos seguros, HTTPS por ejemplo, la
velocidad total disminuye debido a la sobrecarga que estos requieren.
• Escalabilidad a largo plazo. A medida que mas usuarios empiecen
a compartir la infraestructura de la nube, la sobrecarga en los servidores de
losproveedores aumentara, si la empresa no posee un esquema de
crecimiento óptimo puede llevar a degradaciones en el servicio o jitter
altos.
Capas
Software como servicio
El software como servicio (en inglés software as a service, SaaS) se
encuentra en la capa mas alta y caracteriza una aplicación
completa ofrecida como un servicio, en-demanda, vía multitenencia
—que significa una sola instancia del software que corre en la
infraestructura del proveedor y sirve a múltiples organizaciones de
clientes. El ejemplo de SaaS conocido mas ampliamente es Salesforce.com,
pero ahora ya hay muchos mas, incluyendo las Google Apps que ofrecen
servicios basicos de negocio como el e-mail. Por supuesto, la
aplicación multitenencia de Salesforce.com ha constituido el mejor
ejemplo de cómputo en nube durante unos cuantos años. Por otro
lado, como muchos otros jugadores en el negocio del cómputo en nube,
Salesforce.com ahora opera en mas de una capa de la nube con su
Force.com, que ya esta en servicio, y que consiste en un ambiente de
desarrollo de una aplicación compañera (“companion
application”), o plataforma como un servicio. Otro ejemplo es la
plataforma MS Office como servicio SaaS con su denominación de Microsoft
Office 365, que incluye versiones online de la mayoría de las
aplicaciones de esta suite ofimatica de Microsoft. 5
Plataforma como servicio
La capa del medio, que es la plataforma como servicio (en inglés
platform as a service, PaaS), es la encapsulación de una
abstracción de un ambiente de desarrollo y el empaquetamientode una
carga de servicios. La carga arquetipo es una imagen Xen (parte de Servicios
Web Amazon) conteniendo una pila basica Red (por ejemplo, un distro
Linux, un servidor Red, y un ambiente de programación como Perl o Ruby).
Las ofertas de PaaS pueden dar servicio a todas las fases del ciclo de
desarrollo y pruebas del software, o pueden estar especializadas en cualquier
area en particular, tal como la administración del contenido.
Los ejemplos comerciales incluyen Google App Engine, que sirve aplicaciones de
la infraestructura Google, y también Windows Azure [2], de Microsoft,
una plataforma en la nube que permite el desarrollo y ejecución de
aplicaciones codificadas en varios lenguajes y tecnologías como .NET,
Java y PHP. Servicios PaaS tales como éstos permiten gran flexibilidad,
pero puede ser restringida por las capacidades que estan disponibles a
través del proveedor.
Infraestructura como servicio
La infraestructura como servicio (infrastructure as a service, IaaS)
-también llamado en algunos casos hardware as a service, HaaS)6 se
encuentra en la capa inferior y es un medio de entregar almacenamiento
basico y capacidades de cómputo como servicios estandarizados en
la red. Servidores, sistemas de almacenamiento, conexiones, enrutadores, y
otros sistemas se concentran (por ejemplo a través de la
tecnología de virtualización) para manejar tipos
específicos de cargas de trabajo —desde procesamiento en lotes
(“batch”) hasta aumento de servidor/almacenamiento durante las
cargas pico. El ejemplo comercial mejor conocidoes Amazon Web Services, cuyos
servicios EC2 y S3 ofrecen cómputo y servicios de almacenamiento
esenciales (respectivamente). Otro ejemplo es Joyent cuyo producto principal es
una línea de servidores virtualizados, que proveen una infraestructura
en-demanda altamente escalable para manejar sitios Web, incluyendo aplicaciones
Web complejas escritas en Ruby en Rails, PHP, Python, y Java.
Tipos de nubes
• Las nubes públicas se manejan por terceras partes, y los
trabajos de muchos clientes diferentes pueden estar mezclados en los
servidores, los sistemas de almacenamiento y otras infraestructuras de la nube.
Los usuarios finales no conocen qué trabajos de otros clientes pueden
estar corriendo en el mismo servidor, red, discos como los suyos propios.7
• Las nubes privadas son una buena opción para las
compañías que necesitan alta protección de datos y
ediciones a nivel de servicio. Las nubes privadas estan en una
infraestructura en-demanda manejada por un solo cliente que controla qué
aplicaciones debe correr y dónde. Son propietarios del servidor, red, y
disco y pueden decidir qué usuarios estan autorizados a utilizar
la infraestructura.
• Las nubes híbridas combinan los modelos de nubes públicas
y privadas. Usted es propietario de unas partes y comparte otras, aunque de una
manera controlada. Las nubes híbridas ofrecen la promesa del escalado
aprovisionada externamente, en-demanda, pero añaden la complejidad de
determinar cómo distribuir las aplicaciones a través de estos
ambientes diferentes. Las empresas pueden sentircierta atracción por la
promesa de una nube híbrida, pero esta opción, al menos
inicialmente, estara probablemente reservada a aplicaciones simples sin
condicionantes, que no requieran de ninguna sincronización o necesiten
bases de datos complejas.
Comparaciones
La computación en nube usualmente es confundida con la
computación en grid (red) (una forma de computación distribuida
por la que 'un súper computador virtual' esta compuesto
de un conjunto ó cluster enlazado de ordenadores débilmente
acoplados, actuando en concierto para realizar tareas muy grandes).8
Controversia
Dado que la computación en nube no permite a los usuarios poseer
físicamente los dispositivos de almacenamiento de sus datos (con la
excepción de la posibilidad de copiar los datos a un dispositivo de
almacenamiento externo, como una unidad flash USB o un disco duro), deja la
responsabilidad del almacenamiento de datos y su control en manos del
proveedor.
La computación en nube ha sido criticada por limitar la libertad de los
usuarios y hacerlos dependientes del proveedor de servicios.9 Algunos
críticos afirman que sólo es posible usar las aplicaciones y
servicios que el proveedor esté dispuesto a ofrecer. Así, The
Times compara la computación en nube con los sistemas centralizados de
los años 50 y 60, en los que los usuarios se conectaban a través
de terminales 'gregarios' con ordenadores centrales. Generalmente,
los usuarios no tenían libertad para instalar nuevas aplicaciones, y
necesitaban la aprobación de administradores para
desempeñardeterminadas tareas. En suma, se limitaba tanto la libertad
como la creatividad. El Times argumenta que la computación en nube es un
retorno a esa época y numerosos expertos respaldan la teoría.10
De forma similar, Richard Stallman, fundador de la Free Software Foundation,
cree que la computación en nube pone en peligro las libertades de los
usuarios, porque éstos dejan su privacidad y datos personales en manos
de terceros. Ha afirmado que la computación en nube es 'simplemente
una trampa destinada a obligar a mas gente a adquirir sistemas
propietarios, bloqueados, que les costaran mas y mas
conforme pase el tiempo.'11
Aplicaciones
• iCloud - desarrollado por Apple Inc.
• Campaign Cloud - desarrollado por ElectionMall.Com powerd by Microsoft
• Dropbox - desarrollado por Dropbox
• Google Docs - Desarrollado por Google
Artículo 68
Zona
La zona es el punteo acumulado de los resultados de todas las evaluaciones
desarrolladas a lo largo del trimestre: examenes parciales, ejercicios,
trabajos de investigación, tareas, casos y otros, previos al examen
final.
Es obligación del tutor entregar a los estudiantes dos reportes de zona:
1. En la sexta semana, zona parcial (esto aplica solo a los cursos que contiene
examen parcial).
2. En la décima semana, el punteo total acumulado como zona.
Es responsabilidad del estudiante exigirle al tutor su zona, si el tutor no
entregara la zona correspondiente en la sexta y décima semana, el
estudiante debera reportarlo a mas tardar dos días
habiles después del la fecha de nopresentación de zonas
por parte del tutor, al correo electrónico: directorcoordinaciontutores.idea@galileo.edu.
La Universidad se libera de responsabilidad si el estudiante no reporta lo
anterior en el tiempo correspondiente.
El tutor solo tiene la obligación de presentar zonas en las semanas
indicadas, de igual forma solo tiene responsabilidad en devolver los
éxamenes y tareas de la semana siguiente después de recibidos, si
el alumno no asistiera a cualquiera de estas tutorías, el tutor
conservara la documentación y la entregara en la
décima semana. Si el alumno no solicita la misma, esta sera
destruida.
El tutor solo puede entregar las zonas al alumno que esta debidamente
inscrito y asignado, bajo ninguna circunstancia puede entregar copia de las
mismas a la Administración del CEI.
Artículo 70
Normas específicas para la evaluación por medio de un examen
escrito
Para todas las evaluaciones de aprendizaje por medio de un examen escrito, se
establecen como normas específicas:
1. Se obliga la presencia física del estudiante en los examenes.
2. Se obliga a realizar evaluaciones en forma individual. El desarrollo de
evaluaciones en grupo no aplica. A quien se le sorprenda contraviniendo este
artículo, tutor o estudiante, sera sancionado conforme al
reglamento vigente.
3. Por la modalidad y metodología del Programa FISICC-IDEA, no existe
exoneración de examenes en cualquiera de los cursos. El examen
final es obligatorio en todo el programa, y este incluye todo el contenido del
curso. A quien se le sorprendacontraviniendo este artículo, tutor o
estudiante, sera sancionado conforme al reglamento vigente.
4. El estudiante, en todo examen (corto, parcial, final, reposición o
privado) otorgado por Universidad Galileo (por medio de cuadernillo, hoja
scantron, hojas simples o en computadora), debera firmar o aceptar el
enunciado: “Por este medio acepto y me sujeto a las reglas de
evaluación de los cursos establecidas por la Universidad y a las
sanciones correspondientes por la infracción a las mismas”.
5. El estudiante debe someterse a los examenes correspondientes (cortos,
parciales y finales) en las fechas y horarios establecidos por el tutor en el
programa de estudio. Quien no se presente a dichas fechas perdera el
valor de los mismos. En todo caso el estudiante que no pueda asistir al examen
parcial, el tutor podra aplicar en forma proporcional al valor del
parcial no realizado, la nota obtenida por el estudiante en el examen final,
siempre y cuando exista una justificación de ausencia, la nota obtenida
en el examen final sea mayor de 61 puntos y presente su solicitud y
justificación ante el tutor, antes de finalizada la octava semana de
tutorías. En el caso de no poder asistir tampoco al examen final le
valga por el examen parcial. Se sugiere en este caso que el alumno opte
directamente por el examen de reposición y no por extraordinario, dado
que el extraordinario solo modificara la nota del examen final pero no
tendra puntuación del parcial. En el caso de reposición se
le efectuara un examen de 0 a 100 puntos.
6. La duración delexamen final dependera de la cantidad de
créditos académicos del curso en mención. Para los cursos
de un (1) período, el examen tendra duración de una (1)
hora y, para los de dos (2) períodos, seran dos (2) horas. Esta
duración no aplica para los Seminarios o cursos con Examen Centralizado.
7. Bajo ninguna circunstancia el tutor podra realizar evaluaciones por
medio de un examen escrito fuera del horario y Centro de Estudios en el cual el
estudiante tiene la asignación de curso, de igual forma el tutor no esta
autorizado a realizar ningún cobro sobre los examenes
extraordinarios. A quien se le sorprenda contraviniendo este artículo,
tutor o estudiante, sera sancionado conforme al reglamento vigente.
8. En caso de evento fortuito, como corte o suspensión del servicio de
energia eléctrica, situaciones climaticas, fenómenos
naturales u otras situaciones externas, que afecte el desarrollo de la
tutoría durante una evaluación escrita, la misma sera
suspendida, y los examenes deben ser recogidos por el tutor
inmediatamente, no es posible que el alumno continúe desarrollando sus
examen.
Para definir si el examen tiene validez o es necesario trasladarlo para la
siguiente tutoría se considera lo siguiente:
• Sí del tiempo destinado al examen, el tiempo recorrido es mayor
del 50%, se dara como valida la prueba y se ponderara
sobre el 50% del contenido del examen. El alumno que haya concluido sus examen
se le ponderara sobre 100%.
• Si es menor se repetira la prueba la siguiente semana de
tutorías, un examen no puede realizarseen tutoría de
reposición. En todo caso la prueba sera distinta. Si en todo caso
un alumno hubiera concluido su prueba la misma sera valida, sin
embargo tiene derecho a someterse a la nueva prueba.
En el caso de ausencia se energía eléctrica, el examen y
tutoría puede continuar si es en horario diurno y el aula tiene
suficiente iluminación natural para concluir la misma. Si es factible,
en el tiempo restante se avanzara en los siguientes temas tutoría
para que no sea necesaria la reposición de la misma.
Artículo 86
Examen Extraordinario
Es el examen que da el Programa FISICC-IDEA al estudiante que cuando por justificación
de ausencia, no asiste a la evaluación final. En este caso el estudiante
conserva la zona acumulada obtenida en el desarrollo del curso.
Para optar a un examen extraordinario, el estudiante debe dirigir una
solicitud, adjuntando constancia a su justificación de ausencia al
departamento de Control Académico para su aprobación. La misma
debe hacerse a Control Académico como fecha límite, antes de
finalizada la segunda semana de tutorías del ciclo académico
inmediato siguiente, al que el estudiante se asignó el curso del que
solicita examen, después de esta fecha el estudiante pierde la
concesión de examen extraordinario.
Una vez aprobado la autorización, para la asignación de la fecha
del examen extraordinario, el estudiante puede optar a las siguientes opciones:
• a. Realizar el examen en la primera fecha de examenes de
reposición: en este caso aplica el procedimiento y costos de
asignación deexamenes de reposición, con la única
diferencia que Control Académico tomara en cuenta la zona para
publicar la nota final. Este examen se realiza en el caso del interior de la
república en el Centro de Estudios del estudiante y para estudiantes del
Departamento de Guatemala, en el Campus Central. Ver artículo 80.
• b. Realizar el examen extraordinario en una fecha y hora establecida en
común acuerdo entre las partes. En este caso se aplica el costo de
examenes extraordinarios y únicamente se realiza en Campus
Central.
Ambas opciones son para realizar el examen en fechas posteriores a la del
examen final al que el estudiante no pudo asistir. Si en todo caso el
estudiante prefiere que se le realice el examen antes del fin de ciclo,
debera realizar la solicitud por escrito a Dirección
Académica, para que se determine como proceder, en estos casos
sólo se modificara la fecha del examen con causa justificable y
constancias que demuestren lo anterior. Dirección Académica
definira el lugar, hora y costo del examen y el responsable del
corrimiento del mismo. El tutor no tiene autoridad para adelantarle el examen
final, quien contradiga lo anterior sera sancionado según el
reglamento, un examen realizado fuera de fecha realizado por el tutor puede
inclusive implicar la baja del tutor.
El examen extraordinario no se puede llevar a cabo bajo ninguna
excepción después de finalizar la quinta semana de
tutorías, por ello no se puede llevar a cabo en la segunda fecha de
reposición.