jueves, 16 de octubre de 2008

HARDWARE



Hardware: es la parte física de un computador y el más amplio de cualquier dispositivo electrónico. El término proviene del inglés[1] y es definido por la RAE como el "Conjunto de los componentes que integran la parte material de una computadora" [2] , sin embargo, es usual que sea utilizado en una forma más amplia, generalmente para describir componentes físicos de una tecnología, así el hardware puede ser de un equipo militar importante, un equipo electrónico, un equipo informático o un robot. En informática también se aplica a los periféricos de una computadora tales como el disco duro, CD-ROM, disquetera (floppy), etc. En dicho conjunto se incluyen los dispositivos electrónicos y electromecánicos, circuitos, cables, armarios o cajas, periféricos de todo tipo y cualquier otro elemento físico involucrado.


El hardware se refiere a todos los componentes físicos (que se pueden tocar), en el caso de una computadora personal serían los discos, unidades de disco, monitor, teclado, la placa base, el microprocesador, étc. En cambio, el software es intangible, existe como información, ideas, conceptos, símbolos, pero no ocupa un espacio físico, se podría decir que no tiene sustancia. Una buena metáfora sería un libro: las páginas y la tinta son el hardware, mientras que las palabras, oraciones, párrafos y el significado del texto (información) son el software. Una computadora sin software sería tan inútil como un libro con páginas en blanco.
Placas base Una primera distinción la tenemos en el formato de la placa, es decir, en sus propiedades físicas. Dicho parámetro está directamente relacionado con la caja, o sea, la carcasa del ordenador. Hay dos grandes estándares: ATX y Baby AT La segunda distinción la haremos por el zócalo de la CPU, así como los tipos de procesador que soporte y la cantidad de ellos. Tenemos el estándar Tipo 4 o 5 para Pentium, el tipo 7 para Pentium y MMX, el Super 7 para los nuevos procesadores con bus a 100 Mhz, el tipo 8 para Pentium Pro, el Slot 1 para el Pentium II y el Celeron, y el Slot 2 para los Xeon. Estos son los más conocidos.La siguiente distinción la haremos a partir del chipset que utilicen:Los más populares son los de Intel. Estos están directamente relacionados con los procesadores que soportan, así tenemos que para el Pentium están los modelos FX, HX, VX y TX.Para Pentium PRO los GX, KX y FX. Para Pentium II y sus derivados, además del FX, los LX, BX, EX, GX y NX. Para Pentium MMX se recomienda el TX, aunque es soportado por los del Pentium 'Classic'.También existen placas que usan como chipset el de otros fabricantes como VIA, SiS, UMC o Ali (Acer).El siguiente parámetro es el tipo de bus.


Hoy en día el auténtico protagonista es el estandar PCI de 32 bits en su revisión 2.1, pero también es importante contar con alguna ranura ISA de 16 bits, pues algunos dispositivos como módems internos y tarjetas de sonido todavía no se han adaptado a este estándar, debido básicamente a que no aprovechan las posibilidades de ancho de banda que éste posee.Tambien existe un PCI de 64 bits, aunque de momento no está muy visto en el mundo PC.Otros tipos de bus son el ISA de 8 bits, no usado ya por ser compatible con el de 16 bits, el EISA, usado en algunas máquinas servidoras sobre todo de Compaq, el VL-Bus, de moda en casi todos los 486, o el MCA, el famoso bus microcanal en sus versiones de 16 y 32 bits patrocinado por IBM en sus modelos PS/2.
Procesadores


el procesador, es el componente en una computadora que interpreta las instrucciones y procesa los datos contenidos en los programas de la computadora. Las CPU proporcionan la característica fundamental de la computadora y son uno de los componentes necesarios encontrados en las computadoras de cualquier tiempo, junto con el almacenamiento primario y los dispositivos de entrada/salida. Se conoce como microprocesador el CPU que es manufacturado con circuitos integrados.
Artículo sobre las actuales plataformas PC. Gama Pentium: Classic, MMX, Pro, PII, Celeron, Xeon, PIIIK5, K6, K6-2, K6-III, Athlon6x86, 6x86MX, MII, Media GXWinchip C6, Winchip2, Winchip3


Memorias

Hemos de distinguir entre la memoria principal, la memoria caché, y la memoria de video.La primera se emplea para poder ejecutar mayores y más programas al mismo tiempo, la segunda para acelerar los procesos de la C.P.U, y la tercera nos permite visualizar modos de mayor resolución y con más colores en el monitor, así como almacenar más texturas en tarjetas 3d.



La primera distinción que debemos realizar es el formato físico, cuyo parámetro más importante es el número de contactos (ó pins).Hoy en día podemos encontrarlas de 30 contactos (8 bits) y que miden unos 9 cm., 72 (32 bits) y con una longitud de casi 11cm., y 168 (64 bits) y casi 13 cm. Las dos primeras reciben el nombre de SIMM y funcionan a 5V, y la última es conocida como DIMM y puede trabajar a 3,3V ó a 5V, dependiendo del tipo.La siguiente distinción por orden de importancia sería el tipo, en orden a su antigüedad, esta puede ser DRAM, Fast Page (o FPM), EDO ó SDRAM. Es importante consultar el manual de la placa base para saber que tipos soporta.El tipo SDRAM sólo se encuentra en formato DIMM, y es la que más dolores de cabeza nos puede causar, ya que puede ser Buffered o Unbuffered, y trabajar a 3,3 o a 5V. Además, no todas las placas base soportan todas estas combinaciones, algunas por ejemplo sólo soportan módulos de 3,3V.Afortunadamente, hay una muesca en estas memorias que impide conectar un módulo en un zócalo para el que no ha sido diseñado.Otra característica importante es la paridad, esta característica actualmente está en desuso, pero puede ser fuente de problemas, ya que algunas placas no soportan esta característica, mientras otras (pocas) sólo funcionan con ella.Saber si un módulo posee o no paridad es relativamente fácil, basta con contar el número de chips (circuitos integrados) que hay en el circuito impreso. Si es impar entonces es memoria con paridad.Por último nos queda comentar el tiempo de acceso, éste cuanto más pequeño sea, mejor.Si hablamos de módulos SIMM, dependiendo de su antigüedad, son normales tiempos de 80, 70 , 60 ó incluso 50 ns. En las memorias DIMM SDRAM, suelen ser habituales tiempos de alrededor de 10 ns.También es importante señalar la máxima frecuencia a la que pueden trabajar. En este aspecto se debe recordar que el único diseño capaz de trabajar a 100 Mhz es el tipo SDRAM.En cuanto a capacidades las más habituales son las de 256Kb, 1, 2, 4, 8, 16, 32, 64 y 128Mb., aunque no todas pueden estar soportadas por nuestra placa base, por ejemplo los módulos de 2 Mb no suelen ser habituales, y los de 256Kb y 1Mb sólo están en formato de 30 pins., y los módulos DIMM empiezan a partir de 16 Mb.También hay que entender que el bus de datos del procesador debe coincidir con el de la memória, y en el caso de que no sea así, esta se organizará en bancos, habiendo de tener cada banco la cantidad necesaria de módulos hasta llegar al ancho buscado.Por tanto el ordenador sólo trabaja con bancos completos, y éstos sólo pueden componerse de módulos del mismo tipo y capacidad.


La memoria caché de segundo nivel (L2) es una memoria muy rápida llamada SRAM (RAM estática) que se coloca entre la memoria principal y la CPU y que almacena los últimos datos transferidos.El procesador, como en los casos de caché de disco, primero consulta a dicha memoria intermedia para ver si la información que busca está allí, en caso afirmativo podemos trabajar con ella sin tener que esperar a la más lenta memoria principal.Dicha memoria solo se usa como caché debido a que su fabricación es muy cara y se emplea en módulos de poca capacidad como 256 ó 512 Kb.No hay que confundir nunca la memoria de segundo nivel con la de primer nivel (L1) ya que esta suele ir integrada dentro del procesador, y suele ser de menor capacidad, aunque evidentemente dispone de un acceso mucho más rápido por parte de la CPU.


Discos duros

En el mundo del PC hay dos grandes estándares, IDE y SCSI, aunque el primero está mucho más extendido que el segundo, la tecnología SCSI está presente en otras muchas plataformas, como los Mac , sistemas Unix, AS/400, etc...Los dos estándares han ido sufriendo a lo largo del tiempo distintas implementaciones para intentar seguir el ritmo marcado por otros componentes cada vez más rápidos, como los procesadores.


Parámetros a tener en cuenta:


Capacidad: Aconsejable que sea a partir de 2,1 Gbytes en adelante.


Tiempo de acceso: Importante. Este parámetro nos indica la capacidad para acceder de manera aleatoria a cualquier sector del disco.


Velocidad de Transferencia: Directamente relacionada con el interface.En un dispositivo Ultra-2 SCSI es de 80 MBytes/seg. mientras que en el Ultra DMA/33(IDE) es de 33,3 MBytes/seg. en el modo DMA-2. Esta velocidad es la máxima que admite el interface, y no quiere decir que el disco sea capaz de alcanzarla.


Velocidad de Rotación: Tal vez el más importante. Suele oscilar entre las 4.500 y las 7.200 rpm (revoluciones por minuto).


Caché de disco: La memoria caché implementada en el disco es importante, pero más que la cantidad es importante la manera en que ésta se organiza. Por ello este dato normalmente no nos da por si solo demasiadas pistas. Son normales valores entre 64 y 256 Kb.


IDE:Cronologicamente, y empezando por el primero no encontramos con los primeros discos IDE con su limitación a 528 Mb. y pudiendo solo conectar hasta 2 de ellos.Después vinieron los discos EIDE (FastATA), desarrollados por la compañía Western Digital,compatibles con los primeros, pero con algunas mejoras, basadas en la especificación ATA-2, que ya soporta unidades de CD-ROM (ATAPI) y de cinta.Otra mejora importante es el soporte de 2 canales para conectar hasta 4 unidades.Además se definen varios modos de transferencia de datos, que llegan hasta los 16,6 Mb./seg. como el PIO-4, o mejor aún el DMA-2, que soporta la misma tasa pero sin intervención de la CPU.La última especificación, desarrollada por Quantum es la Ultra DMA/33 (UltraATA), que permite transferencias DMA a 33 Mb./seg.


SCSI:En el caso de los discos SCSI, tenemos el primero, llamado SCSI-1, con un ancho de bus de 8 bits, aunque ya en esta primera especificación se incluian características muy destacadas, como la posibilidad de conectar hasta 7 dispositivos de todo tipo, discos, cinas, escáners, CD-ROM, etc...Después viene el SCSI-2, que ya dispone de un ancho de bus de 16 bits. El siguiente paso es el Fast-SCSI, considerado el doble de rápido. Después viene el Wide SCSI, ya con un ancho de bus de hasta 32 bits, así como un mayor rendimiento.



Disqueteras


Refiriendonos exclusivamente al mundo del PC, en las unidades de disquette sólo han existido dos formatos físicos considerados como estandar, el de 5 1/4 y el de 3 1/2.En formato de 5 1/4, el IBM PC original sólo contaba con unidades de 160 Kb., esto era debido a que dichas unidades sólo aprovechaban una cara de los disquettes.Luego, con la incorporación del PC XT vinieron las unidades de doble cara con una capacidad de 360 Kb.(DD o doble densidad), y más tarde, con el AT, la unidad de alta densidad (HD) y 1,2 Mb.El formato de 3 1/2 IBM lo impuso en sus modelos PS/2. Para la gama 8086 las de 720 Kb. (DD o doble densidad) y para el resto las de 1,44 Mb. (HD o alta densidad) que son las que hoy todavía perduran.En este mismo formato, también surgió un nuevo modelo de 2,88 Mb. (EHD o Extra alta densidad), pero no consiguió cuajar.



Tarjetas gráficas


Hoy en día todas las tarjetas de vídeo son gráficas e incluyen aceleración por hardware, es decir, tienen "chips" especializados que se encargan de procesar la información recibida desde el bus e interpretarla para generar formas, efectos, texturas, que de otra forma no serían posibles o con peor calidad, o colapsarían al ordenador y a su bus.Es muy importante entender que las tarjetas aceleradoras 3D sólo sirven para juegos y para programas de diseño gráfico 3D que estén preparados para sacarles partido. Si habitualmente trabajamos con programas ofimáticos tipo "Office", no obtendremos ningún beneficio de estas nuevas tarjetas.Productos como el i740 de Intel han permitido poder fabricar tarjetas con aceleración 2 y 3D en un solo chip y a un precio realmente económico, por lo estan capacidades se han convertido ya en lo mínimo exigible...En las tarjetas 2D las más utilizadas en los PC's son las fabricadas por la casa S3, entre otras cosas porque se hicieron con el mercado OEM. Tenemos toda la saga de chips Trio: 32, 64, 64V+ y 64V2.En las tarjetas 3D dicha marca fué de las primeras en ofrecer capacidades 3D en sus chips Virge, aunque no fueron competitivos con los productos de la competencia, como los chips de Rendition, 3Dfx, nVidia, NEC (PowerVR), Intel (i740), etc...

Otro factores a tener en cuenta:

Memoria: En las tarjetas 2D, la cantidad de memória sólo influye en la resolución y el número de colores que dicha tarjeta es capaz de reproducir. Lo habitual suele ser 1 ó 2 Megas.16 colores = 4 bits.256 colores = 8 bits.64k = 65.536 colores = 16 bits16,7 M = 16.777.216 colores = 24 bits.En cuanto a la programación en 3D, en un inicio, prácticamente cada fabricante utilizaba su propia API, que es algo así como el "lenguaje" a utilizar para que los programas se comuniquen con el hardware.Actualmente sólo sobreviven 3:Glide, que es la propia de las tarjetas Voodoo de 3dfx y que consiguió imponerse a las demás gracias a la aceptación de estos chips por su elevado rendimiento en comparación con otras soluciones.Direct3D, que es parte de las DirectX de Microsoft.Open GL. Que es propiedad de Silicon Graphics y que hace ya mucho tiempo se utilizaba en las estaciones de trabajo de esta marca.

Tarjetas de sonido
En el mundo de los ordenadores compatibles el estandar en sonido lo ha marcado la empresa Creative Labs y su saga de tarjetas Sound Blaster.Si escojemos una tarjeta que no sea de esta marca, y queremos ejecutar todo tipo de software es importante comprobar que sea SB compatible a nivel de hardware, y si así es, informarnos de con que modelo es compatible.En el caso de que sólo nos interese que funcione con programas Windows 95, esta precaución no será importante, entonces sería mas interesante saber que dispone de drivers de calidad, y de que Microsoft la soporte a nivel hardware en sus DirectX.Otro factor a tener en cuenta es si la tarjeta admite la modalidad "full duplex", es decir si admite "grabar" y "reproducir" a la vez, o lo que es lo mismo, si puede procesar una señal de entrada y otra de salida al mismo tiempo. Esto es importante si queremos trabajar con algún programa de videoconferencia tipo "Microsoft NetMeeting" el cual nos permite mantener una conversación con otras personas, pues la tarjeta se comporta como un teléfono, y nos deja oir la voz de la otra persona aunque en ese momento estemos hablando nosotros. Muchas de las tarjetas de Creative no poseen este soporte a nivel de hardware, pero si a nivel de software con los drivers que suministra la casa para algunos S.O.También es importante el soporte de "MIDI". Este es el estandar en la comunicación de instrumentos musicales electronicos, y nos permitirá reproducir la "partitura" generada por cualquier sintetizador y a la vez que nuestra tarjeta sea capaz de "atacar" cualquier instrumento que disponga de dicha entrada.Hay que tener claro que el formato MIDI realmente no "graba" el sonido generado por un instrumento, sino sólo información referente a que instrumento estamos "tocando", que "nota" , y que características tiene de volumen, velocidad, efectos, etc..., con lo que el sonido final dependerá totalmente de la calidad de la tarjeta.

Cajas Como ya se comenta en la sección de placas base, la principal distinción la tenemos en el formato de la placa a la que sustenta.Así tenemos que puede ser ATX ó Baby AT.El siguiente factor serán las dimensiones de la misma. De menor a mayor las más normales son: Mini-torre, sobremesa, midi-torre ó semi-torre, y gran torre, así como modelos para algunos servidores que requieren el montaje en dispositivos tipo rack.Cuanto mayor sea el formato, mayor será el número de bahías para sustentar dispositivos tales como unidades de almacenamiento. Normalmente también será mayor la potencia de la fuente de alimentación.Las características de un modelo mini torre típicas son: soporte para hasta 7 ranuras de expansión. 2 unidades externas de 5 1/4, 2 también externas de 3 1/2 y 1 interna, fuente de alimentación de 200 w, pilotos de encendido, disco y turbo, pulsadores de reset y turbo. En los modelos más modernos, el pulsador y la luz de turbo se suelen sustituir por los de sleep.


CD y DVD-Rom la unidad de CD-ROM ha dejado de ser un accesorio opcional para convertirse en parte integrante de nuestro ordenador, sin la cual no podríamos ni siquiera instalar la mayor parte del software que actualmente existe, por no hablar ya de todos los programas multimedia y juegos.Pero vayamos a ver las características más importantes de estas unidades.En primer lugar vamos a diferenciar entre lectores, grabadores y regrabadores. Diremos que los más flexibles son los últimos, ya que permiten trabajar en cualquiera de los tres modos, pero la velocidad de lectura, que es uno de los parámetros más importantes se resiente mucho, al igual que en los grabadores.Así tenemos que en unidades lectoras son habituales velocidades de alrededor de 34X (esto es 34 veces la velocidad de un lector CD de 150 Kps.), sin embargo en los demás la velocidad baja hasta los 6 ó 12X.Dado que las unidades lectoras son bastante económicas, suele ser habitual contar con una lectora, y una re grabadora, usando la segunda sólo para operaciones de grabación.

Monitor El monitor es una parte del ordenador a la que muchas veces no le damos la importancia que se merece.Hay que tener en cuenta que junto con el teclado y el ratón son las partes que interactúan con nuestro cuerpo, y que si no le prestamos la atención debida, podremos llegar incluso a perjudicar nuestra salud.Evidentemente no en el caso de personas que hacen un úso esporádico, pero si en programadores impenitentes o navegadores incansables, que puedan pasarse muchas horas diarias al frente de la pantalla.Vamos a explicar los parámetros que influyen en la calidad de un monitor:Tamaño:El tamaño de los monitores se mide en pulgadas, al igual que los televisores. Hay que tener en cuenta que lo que se mide es la longitud de la diagonal, y que además estamos hablando de tamaño de tubo, ya que el tamaño aprovechable siempre es menor.El tamaño es importante porque nos permite tener varias tareas a la vez de forma visible, y poder trabajar con ellas de manera cómoda.También es importante en el caso de que se manejen documentos de gran tamaño o complejidad, tales como archivos de CAD, diseño, 3D, etc que requieren de gran detalle. En estos casos son aconsejables tamaños de 21".También es importante tener en cuenta que con Windows 98 ya es posible conectar varios monitores al mismo PC, por lo que en el caso de requerir la visualización de varias tareas a la vez puede ser importante, por ejemplo, sustituir un monitor de 27 pulgadas por dos de 15, que será una solución más barata y quizás más cómoda.

El modem El modem es otro de los periféricos que con el tiempo seAún en el caso de estar conectado a una red, ésta tampoco se libra de éstos dispositivos, ya que en este caso será la propia red la que utilizará el modem para poder conectarse a otras redes o a Internet estando en este caso conectado a nuestro servidor o a un router.Lo primero que hay que dejar claro es que los modem se utilizan con líneas analógicas, ya que su propio nombre indica su principal función, que es la de modular-demodular la señal digital proveniente de nuestro ordenador y convertirla a una forma de onda que sea asimilable por dicho tipo de líneas.Uno de los primeros parámetros que lo definen es su velocidad. El estándar más habitual y el más moderno está basado en la actual norma V.90 cuya velocidad máxima está en los 56 Kbps (Kilobites por segundo). Esta norma se caracteriza por un funcionamiento asimétrico, puesto que la mayor velocidad sólo es alcanzable "en bajada", ya que en el envío de datos está limitada a 33,6 Kbps.Otra consideración importante es que para poder llegar a esta velocidad máxima se deben dar una serie de circunstancias que no siempre están presentes y que dependen totalmente de la compañía telefónica que nos presta sus servicios, pudiendo ser en algunos casos bastante inferiores.

Puertos Los ordenadores personales actuales aún conservan prácticamente todos los puertos heredados desde que se diseñó el primer PC de IBM. Por razones de compatibilidad aún seguiremos viendo este tipo de puertos, pero poco a poco irán apareciendo nuevas máquinas en las que no contaremos con los típicos conectores serie, paralelo, teclado, etc... y en su lugar sólo encontraremos puertos USB, Fireware (IEE 1394) o SCSI.Un ejemplo típico lo tenemos en las máquinas iMac de Apple, que aunque no se trate de máquinas PC-Compatibles, a nivel hardware comparten muchos recursos, y nos están ya marcando lo que será el nuevo PC-2000 en cuanto a que sólo disponen de bus USB para la conexión de dispositivos a baja-media velocidad, como son el teclados, ratón, unidad ZIP, módem, etc..


Teclado

El teclado es un componente al que se le da poca importancia, especialmente en los ordenadores clónicos. Si embargo es un componente esencial, pues es el que permitirá que nuestra relación con el ordenador sea fluida y agradable, de hecho, junto con el ratón son los responsables de que podamos interactuar con nuestra máquina.Así, si habitualmente usamos el procesador de textos, hacemos programación, u alguna otra actividad en la que hagamos un uso intensivo de este componente, es importante escoger un modelo de calidad. En el caso de que seamos usuarios esporádicos de las teclas, porque nos dediquemos más a juegos o a programas gráficos, entonces cualquier modelo nos servirá, eso sí, que sea de tipo mecánico. No acepteis ningún otro.Parámetros importantes a tener en cuenta son el tacto, no debe de ser gomoso, y el recorrido, no debe de ser muy corto. También es importante la ergonomía, es aconsejable que disponga de una amplia zona en la parte anterior, para poder descansar las muñecas. Y hablando de la ergonomía, este es uno de los parámetros que más destaca en un teclado, uno de los ya clasicos en este aspecto es el "Natural keyboard" de Microsoft.


El mouse

o ratón es un periférico de entrada de la computadora de uso electronico, generalmente fabricado en plástico, utilizado como entrada o control de datos. Se utiliza con una de las manos del usuario y detecta su movimiento relativo en dos dimensiones por la superficie horizontal en la que se apoya, reflejándose habitualmente a través de un puntero o flecha en el monitor. Su uso es fácil, y se utiliza para movernos con rapidez a través de los elementos que se muestran en pantalla y elegir la información que nos interesa con mayor facilidad.Hoy en día es un elemento imprescindible en un equipo informático para la mayoría de las personas, y pese a la aparición de otras tecnologías con una función similar, como la pantalla táctil, la práctica ha demostrado que tendrá todavía muchos años de vida útil.

miércoles, 15 de octubre de 2008

MI PROGRAMA DE FORMACION


ACTIVIDADES: 1. Identificar las líneas de tecnología a la cual pertenece el centro. El centro pertenece a las líneas de tecnologías de:
R/ recursos naturales, industria y biodiversidad


2. Identificar a que línea tecnológica del centro pertenece el programa de formación que estas cursando.
R/ pertenece a la línea de industria


3. De cada módulo de formación que conforma tu programa identifica la norma de competencia de cada módulo


MÓDULO DE FORMACIÓN MANTENIMIENTO PREVENTIVO Y PREDICTIVO DEL HARDWARE

R/ MH301._REALIZAR MANTENIMIENTO PREVENTIVO Y PREDICTIVO QUE GARANTICE EL FUNCIONAMIENTO DEL HARDWARE DE LOS EQUIPOS


MÓDULO DE FORMACIÓN MANTENIMIENTO CORRECTIVO DE MONITORES EIMPRESORAS

R/ MH 303: REALIZAR EL MANTENIMIENTO CORRECTIVO EN HARDWARE DE LOS EQUIPOS MEDIANTE LA REPARACIÓN DE LOS MÓDULOS COMPONENTES.


MÓDULO DE FORMACIÓN MANTENIMIENTO CORRECTIVO COMPUTADORES DE ESCRITORIO Y PORTÁTILES

R/ MH-302. REALIZAR MANTENIMIENTO CORRECTIVO EN EL HARDWARE DE LOS EQUIPOS, MEDIANTE EL REEMPLAZO DE LOS MÓDULOS COMPONENTES.


MÓDULO DE FORMACIÓN MANTENIMIENTO PREVENTIVO Y PREDICTIVO DE REDES LAN R/ MH-304 REALIZAR MANTENIMIENTO PREVENTIVO Y PREDICTIVO QUE CONSERVE LA CONECTIVIDAD ENTRE LOS EQUIPOS


MÓDULO DE FORMACIÓN MANTENIMIENTO CORRECTIVO DE REDES LAN R/ MH-305 REALIZAR MENTENIMIENTO CORRECTIVO QUE RESTABLEZCA LA CONECTIVIDAD ENTRE LOS EQUIPOS



4. De igual manera como en el numeral 3, identifica los elementos de aprendizajes con sus respectivos componentes normativos.


MÓDULO DE FORMACIÓNMANTENIMIENTO PREVENTIVO Y PREDICTIVO DEL HARDWARER / 1. Desensamblar y Ensamblar elHardware de los equipos segúnmanual de procedimientos. 2. Limpiar interna y externamente elHardware de los equipos queGarantice su funcionamiento.


MÓDULO DE FORMACIÓN MANTENIMIENTO CORRECTIVO DE MONITORES EIMPRESORAS 1. Diagnosticar fallas y defectos enlos circuitos eléctricos, electrónicos ysistemas mecánicos de los móduloscomponentes de los equipos, quedetermine las acciones 2. Reparar fallas y defectos en loscircuitos eléctricos, electrónicos ysistemas mecánicos según manualde procedimiento.


MÓDULO DE FORMACIÓN MANTENIMIENTO CORRECTIVO COMPUTADORES DE ESCRITORIO Y PORTÁTILES 1. Diagnosticar fallas y defectos enel hardware de los equipos,Según manual deprocedimientos. (D2.1) 2.Corregir fallas y defectos en elHardware de los equipos,mediante el reemplazo demódulos componentes. (D2.2)


MÓDULO DE FORMACIÓN MANTENIMIENTO PREVENTIVO Y PREDICTIVO DE REDES LAN 1. Revisar la conectividad física entre losequipos en una LAN que determineposible deterioro del medio físico utilizado. 2. Monitorear el comportamiento de la red enla que están conectados los equipos, queconfirme posibles fallas por sobreutilización del medio.



MÓDULO DE FORMACIÓN MANTENIMIENTO CORRECTIVO DE REDES LAN 1. Diagnosticar la falla deconectividad en la red segúnmanual de procedimientos.(D5.1) 2. Reparar la falla de conectividaden la red según manual deprocedimientos. (D5.2)


5. Identificar las unidades de aprendizajes de cada módulo, describirla y especificar tiempo de duración.


R/MÓDULO DE FORMACIÓN MANTENIMIENTO PREVENTIVO Y PREDICTIVO DEL HARDWARE UNIDADES DE APRENDIZAJE 1. Mantenimiento preventivo y predictivo que garantice elfuncionamiento de la CPU de escritorio y equipos portátiles. 191 horas 2.Mantenimiento preventivo y predictivo que garantice elfuncionamiento de impresoras de Matriz de punto, inyecciónde tinta, láser, monitor, scanner, CPU de escritorio y equipos portátiles duracion 137 horas


MÓDULO DE FORMACIÓN MANTENIMIENTO CORRECTIVO DE MONITORES E IMPRESORAS 1. Mantenimiento correctivo de la fuente de poder 155Horas 2. Mantenimiento correctivo de Monitor 80Horas 3. Mantenimiento correctivo de Impresora de Inyección de Tinta 40Horas 4. Mantenimiento correctivo de Impresora de matriz de Punto 40Horas 5. Mantenimiento correctivo de Impresora Láser 40Horas


MÓDULO DE FORMACIÓN MANTENIMIENTO CORRECTIVO COMPUTADORES DE ESCRITORIO Y PORTÁTILESTIEMPO 1. Mantenimiento correctivo mediante reemplazo de móduloscomponentes de los PC de escritorio.187 Horas 2. Mantenimiento correctivo mediante reemplazo de losmódulos componentes de los PC portátiles.100 Horas


MÓDULO DE FORMACIÓN MANTENIMIENTO PREVENTIVO Y PREDICTIVO DE REDES LAN 1.Mantenimiento preventivo y predictivo que conserve laConectividad física entre los equipos. 140 horas 2. Mantenimiento preventivo y predictivo que conserve laConectividad lógica entre los equipos 60horas


MÓDULO DE FORMACIÓN MANTENIMIENTO CORRECTIVO DE REDES LANTIEMPO 1. Mantenimiento correctivo para restablecer la conectividadfísica entre los equipos.70 horas 2. Mantenimiento correctivo para restablecer la conectividadlógica entre los equipos80 horas



6. Identificar cada uno de los resultados de aprendizaje del programa y apropiarse de ellos. (Utilizarlos en la formulación de proyectos).


MÓDULO DE FORMACIÓN MANTENIMIENTO PREVENTIVO Y PREDICTIVO DEL HARDWARE RESULTADOS DE APRENDIZAJE Al terminar la actividad de aprendizaje el educando (trabajador alumno)estará en capacidad de: -Ensamblar y desensamblar CPU (de escritorio y portátil) con honestidad yde acuerdo a manuales del fabricante y aplicando normas de seguridad. -Manejar diferentes Sistemas operativos (Windows 95, Windows 98)verificando el funcionamiento de la CPU. -Limpiar externa e internamente teniendo en cuenta manual de procedimientoutilizando responsablemente los químicos y herramientas según normas deseguridad.


MÓDULO DE FORMACIÓN MANTENIMIENTO CORRECTIVO DE MONITORES E IMPRESORAS
4.1.2 RESULTADOS DE APRENDIZAJE 1. Identificar con precisión, el tipo de falla por bloques y componentes de lafuente de poder conmutada. 2. Manejar cuidadosamente instrumentos, equipos y herramientas dereparación de las fuentes de poder para computadores. 3. Reemplazar los componentes electrónicos de acuerdo a las normas deseguridad. 4. Comprobar la calidad de funcionamiento de la fuente de poder. 5. Elaborar con honestidad el informe técnico de reparación de la fuente depoder en forma organizada y metódica


MÓDULO DE FORMACIÓN MANTENIMIENTO CORRECTIVO COMPUTADORES DE ESCRITORIO Y PORTÁTILES
4.1.4 RESULTADOS DE APRENDIZAJE -Ensamblar y desensamblar CPU (portátil)con honestidad y de acuerdo a manualesdel fabricante y aplicando normas deseguridad. -Manejar diferentes sistemas operativos(Windows 95, Windows 98) verificando elfuncionamiento de la CPU. -Limpiar externa e internamente teniendoen cuenta manual de procedimientoutilizando responsablemente los químicosy herramientas según normas deseguridad.


MÓDULO DE FORMACIÓN MANTENIMIENTO PREVENTIVO Y PREDICTIVO DE REDES LAN RESULTADOS DE APRENDIZAJE 1. Describir los aspectos generales de las redes e identificar los componentes físicosutilizando el lenguaje técnico apropiado. 2. Verificar con responsabilidad el enlace físico de las redes para garantizar suestado de operación y conectividad. 3. Realizar cuidadosamente la limpieza de conectores del enlace físico de las redes


MÓDULO DE FORMACIÓN MANTENIMIENTO CORRECTIVO DE REDES LAN RESULTADOS DE APRENDIZAJE -Describir los conceptos generales de las redes de transmisión de datos. -Identificar y describir las características y funciones de los medios de transmisión y equipos que conforman una red LAN. -Diagnosticar las fallas presentes en los medios de trasmisión cableados e inalámbricos con responsabilidad y honestidad. -Reparar las fallas presentes en las redes, garantizando la calidad del del trabajo.


7. Revisar si existe proyecto de formación formulado, o actividades relacionadas con el proyecto.R/ No existe


8. Formular proyectos acorde a tu programa de formación programar actividades de manera clara y precisa. (ver numeral 6).


R/4.1.4 PLANEACIÓN METODOLÓGICA DE ACTIVIDADES DE ENSEÑANZA APRENDIZAJE EVALUACIÓN Módulo de Formación: Mantenimiento preventivo y predictivo de hardwareDuración: 328 horas Unidad de Aprendizaje: Mantenimiento preventivo y predictivo que garantice el funcionamiento de la cpu de escritorio y equipos portátiles Duración: 191 horas Modalidad de Formación: Presencial 4.1.4.3 Actividad de E-A-E Ensamblar y desensamblar la CPUDuración: 50 horas



9. Identificar las acciones que realizaras parcial o totalmente como funciones al terminar el programa de formación. R/ ¡Al realizar esta formación las acciones que realizaría serian las siguientes: 1. Crear nuestra propia microempresa para generar empleo a personas que lo necesiten. 2. Emprender para ofrecerle a la comunidad productos de buena calidad para que tengan una mejor calidad de vida. 3. Motivar a las personas a que tengan esta misma idea para que la comunidad no obtenga esos productos de baja calidad.



10. Identificar los oficios afines del programa o con los que puedes relacionarte. R/ -Ensamblar y desensamblar computadores. -generar nuestro propio empleo para servirle a la comunidad.



11. Funciones que ejecutarías al terminar la formación (perfil de salida) R/ - Trabajar como técnico en computadores y buscar otro empleo relaciona con este programa de formación. -Realizar trabajos de beneficencia para todo la comunidad.



12. identifica los aspectos éticos de tu oficio R/ Manejo responsable de los equipos y materiales de soldeo; manejo responsable de los desechos de soldadura;trabajo seguro en las actividades de formado; capacidad de trabajo en equipo.



13. Identifica las ocupaciones que podrás desempeñar al terminar tu formación. R/ - Interpretar planos y especificaciones de computadores -Instalar, arreglar, remover y mantener equipos de cómputo, módulos componentes y periféricos. -Diagnosticar y ubicar las fallas de los módulos componentes. -Instalar, mantener y reparar computadores y equipos periféricos. -Inspeccionar y probar equipo electrónico, componentes y ensambles utilizando probadores de circuitos, multímetros, osciloscopios y otros instrumentos de prueba electrónicos, herramientas y equipos. -Ajustar, alinear, reemplazar y reparar computadores y periféricos siguiendo las instrucciones de los manuales y utilizando herramientas manuales y eléctricas. -Elaborar presupuestos de los trabajos a realizar. -Revisar los componentes y ensambles electrónicos para asegurar su correcto funcionamiento. -Reparar o reemplazar módulos componentes de equipos, redes.

martes, 14 de octubre de 2008

monitores

ACTIVIDAD

1. Elaborar diagramas de bloques de cada tipo de monitor
2. Realizar el desmonte y montaje de los elementos de una board de un monitor TRC y enlistar los componentes que la forman.
3. Con tu grupo de trabajo, realiza un documento donde especifiques y clarifiques qué función cumplen cada uno de los elementos de la board.
4. Realizar el diseño de un monitor LCD.
5. Haz un comentario de la tendencia futura en el uso de los monitores
6. En un cuadro comparativo describa las ventajas y desventajas de cada tecnología de monitores
7. Realiza un documento donde relaciones las fallas mas protuberantes de los monitores.
8. Describa un procedimiento como usted haría un mantenimiento preventivo de un monitor,



1. Elaborar diagramas de bloques de cada tipo de monitor



diagrama de un TRC



diagrama de un plasma

diagrama de LCD

2. Realizar el desmonte y montaje de los elementos de una board de un monitor TRC y enlistar los componentes que la forman

Interruptor o swich
Regulador de voltaje
Memoria eeprom
Plenciometros
Oscilador horizontal y vertical
Chip procesador de funciones
Sincronismo
Filtros de la fuente
Cristal
Bobina
Diodo
Foco o screen
Modulador de pulsos
Flybac
Dámper
Yugo
Transformador
Condensadores
Transistores



3. Con tu grupo de trabajo, realiza un documento donde especifiques y clarifiques qué función cumplen cada uno de los elementos de la board

El switch o interruptor:
Como su nombre lo indica es como una puerta ,que podría estar abierta permitiendo el paso de la corriente eléctricahacia el otro extremoo Podría estar cerrada "no" permitiendo el paso de la corriente al otro extremo en conclusión son dispositivos de apertura o cerrado al paso de la corriente


Regulador de voltaje:
Es proveer una tensión regulada de salida a partir de una fuente no regulada. Las dos últimas cifras indican el voltaje regulado


Memoria eeprom:
Con estas funciones se puede leer el contenido de una memoria y almacenar los datos


Sincronismo:
Las cuales se ejecutan de forma paralela. Debido a esto, cuando dos o más threads intentan acceder a la vez a un mismo recurso (por ejemplo, una zona de memoria compartida), el resultado puede ser, en el mejor de los casos, impredecible. Por eso surgen los sistemas de sincronización entre procesos. Estos permiten establecer un sincronismo entre dos o más threads y procesos de una forma consistente y, sobre todo, fiable y predecible. En OS/2, estos sistemas están formados por los semáforos.

Bobina:
El funcionamiento de la bobina se basa en el principio de inducción magnética. Esto es, cuando una corriente eléctrica pasa por un alambre produce un campo magnético a su alrededor y cuando deja de pasar esta corriente, se contrae el campo magnético y se introduce electricidad en cualquier alambre que esté dentro de las líneas de fuerza de campo.

Funciones de los Diodos
A primera vista parece que el diodo solamente podría tener la misión de ser un rectificador de corriente, del modo que se usa en el alternador. Pero los diodos sirven para más cosas y existen, además de los diodos llamados de superficie que son los característicos que acabamos de describir, otras formas y funciones para estos componentes electrónicos


El Transistor:
es un dispositivo electrónico semiconductor que cumple funciones de amplificador, oscilador, conmutador o rectificador. El término "transistor" es la contracción en inglés de transfer resistor ("resistencia de transferencia"). Actualmente se los encuentra prácticamente en todos los enseres domésticos de uso diario: radios, televisores, grabadores, reproductores de audio y vídeo, hornos de microondas, lavadoras, automóviles, equipos de refrigeración, alarmas, relojes de cuarzo, computadoras, calculadoras, impresoras, lámparas fluorescentes, equipos de rayos X, tomógrafos, ecógrafos, reproductores mp3, celulares, etc.

El diodo:
El diodo en especial que junto con el transistor y circuitos de salida y deflexión horizontal, eleva el B+ de la fuente de poder (unos 120 V en los TV), a 20 a 30 KV para el TRC, y provee varios voltajes más bajos para otros circuitos.

El yugo
Es un componente en el cuello del CRT que enfoca y dirige los rayos de electrones. Las señales enviadas al yugo determinan la resolución del monitor.


Transformador:
Se denomina transformador a una máquina eléctrica que permite aumentar o disminuir el voltaje o tensión en un circuito eléctrico de corriente alterna, manteniendo la frecuencia. La potencia que ingresa al equipo, en el caso de un transformador ideal, esto es, sin pérdidas, es igual a la que se obtiene a la salida. Las máquinas reales presentan un pequeño porcentaje de pérdidas, dependiendo de su diseño, tamaño, etc


Condensadores:
Se llama condensador a un dispositivo que almacena carga eléctrica. El condensador está formado por dos conductores próximos uno a otro, separados por un aislante, de tal modo que puedan estar cargados con el mismo valor, pero con signos contrarios.
En su forma más sencilla, un condensador está formado por dos placas metálicas o armaduras paralelas, de la misma superficie y encaradas, separadas por una lámina no conductora o dieléctrico. Al conectar una de las placas a un generador, ésta se carga e induce una carga de signo opuesto en la otra placa. Por su parte, teniendo una de las placas cargada negativamente (Q-) y la otra positivamente (Q+) sus cargas son iguales y la carga neta del sistema es 0, sin embargo, se dice que el condensador se encuentra cargado con una carga Q.
5. Haz un comentario de la tendencia futura en el uso de los monitores


segun analistas ,la tendencia futuristica esta basada en el uso de los nuevos monitores

oled,los cuales podrian remplazar los LCD y los PLASMA devido a sus multiples

ventajas ,entre las cuales podemos destacar

mejor contraste

Gama de colores mas amplia

Mayor angulo de vision y menor consumo de energia; ademas permite crear aparatos mas delgados y mas livianos.


6. En un cuadro comparativo describa las ventajas y desventajas de cada tecnología de monitores




5 . Realiza un documento donde relaciones las fallas mas protuberantes de los monitores.

(fallas): Los modernos diseños de monitor que involucran gran cantidad de etapas dentro de un sólo integrado ( Jungle ) , incorporan la etapa de color dentro de los mismos y sumado a la confiabilidad de funcionamiento de los mismos , se podría decir que son pocas las fallas que se pueden sucitar en lo que a color se refiere .
· Los cristales utilizados para la subportadora de color suelen con el tiempo varíar sus características , haciendo que desaparezca el color de la imagen . Es una de las fallas más comunes en esta sección .
· Estos cristales suelen estar acoplados al IC Jungle a traves de capacitores Trimmer , los que sirven para ajustar el oscilador , que también son causales del mismo efecto , la pérdida total de color .
· En el caso de TV's de sistema PAL , la Línea de Retardo suele venir Integrada en algunos modelos ( Philips, Grundig, etc.) , los cuales suelen fallar dejando el TV sin color . Las líneas tradicionales ( ultrasónicas ) generalmente no fallan .
· En los TV's multinorma , debemos controlar los circuitos de conmutación de cristales , hechos en base a diodos , ya que suelen presentar inconvenientes .
· A la slida del detector de video , se encuentran filtos cerámicos , a modo de trampas , para evitar que el sonido pase a los circuitos de video y color , los cuales , suelen deteriorarse provocandonos la pérdida del color y un "temblequeo " en la imagen concordante con el sonido de la misma .
· Dado que los circuitos de color necesitan referencias de tiempo para su correcto funcionamiento , es importante verificar su interconección con la etapa horizontal ( debido a la integración muchas veces esto sucede dentro del Jungle ) . Pequeños desajustes en la frecuencia y fase horizontal , o ausencia de impulsos de referencia provenientes del fly-back , terminarán por anularnos el color.

miércoles, 8 de octubre de 2008

GRUPO KEIWAS


APRENDIZAJE AUTÓNOMO El aprendizaje autónomo es un proceso educativo que estimula al alumno para que sea el autor de su propio desarrollo y en especial que construya por sí mismo su conocimiento. El aprendizaje autónomo implica que el individuo encuentre por sí mismo su conocimiento. El aprendizaje autónomo es un proceso educativo que estimula al alumno para que sea el autor de su propio desarrollo y en especial que construya por sí mismo su conocimiento.La pedagogía para el aprendizaje autónomo permite al individuo elaborar la significación y estructuración de sus propios elementos de conocimiento, relacionándolos entre sí o elaborando conjuntos más amplios de conocimientoEl desarrollo del aprendizaje autónomo proporciona valores sociales de rectitud, integridad y honradez intelectual.


EL APRENDIZAJE COOPERATIVO
La disciplina del diálogo implica aprender a reconocer patrones de interacción que erosionan el aprendizaje del equipo, ejercitando la capacidad de los integrantes para ingresar a un auténtico pensamiento conjunto.Los círculos de estudio tienen un papel fundamental que contribuye eficazmente al desarrollo del trabajo cooperativo, requerido en el proceso de construcción del conocimiento.Sin embargo la posibilidad de trabajar en equipo implica intercambios constructivos de los participantes para el logro de metas compartidas, de cara al aprendizaje inidividual y grupal.


¿Qué son las competencias laborales? En el creciente y diverso conjunto de libros, artículos y materiales de diferente tipo que se viene acumulando respecto al tema, existen múltiples caracterizaciones y definiciones (que provocan otro de los riesgos: el de los malentendidos semánticos).Partiendo de una definición bastante aceptada, podemos entender a las competencias como el conjunto de conocimientos, habilidades y actitudes verificables, que se aplican en el desempeño de una función productiva. Importa subrayar algunos componentes del concepto.Propone una visión global de las calificaciones, en contraposición a los análisis detallados, exhaustivamente desagregados, propios por ejemplo del análisis ocupacional. Tiene en cuenta el conjunto de elementos que necesita el trabajador en el desempeño en el medio laboral. Pero su referencia ya no es el puesto de trabajo, sino el trabajador trabajando. Por otra parte las capacidades deben ser verificables, a través de procedimientos rigurosos de evaluación.Más allá de la definición, aunque parezca no es contradictorio afirmar que las competencias son a la vez un movimiento, un enfoque y uno o varios sistemas.Las principales características de un programa de capacitación por competencias son las que siguen: 1.Las competencias que los alumnos tendrán que cumplir son cuidadosamente identificadas, verificadas por expertos locales y son de conocimiento público.

2.Los criterios de evaluación son derivados del análisis de competencias, sus condiciones explícitamente especificadas y son de conocimiento público.

3.La instrucción se dirige al desarrollo de cada competencia y a una evaluación individual por cada competencia.

4.La evaluación toma en cuenta el conocimiento, las actitudes, y el desempeño de la competencia como principal fuente de evidencia.

5.El progreso de los alumnos en el programa es a un ritmo que ellos determinan y según las competencias demostradas.

6.La instrucción es individualizada al máximo posible.

7.Las experiencias de aprendizaje son guiadas por una frecuente retroalimentación.

8.El énfasis es puesto en el logro de resultados concretos.

9.El ritmo de avance de la instrucción es individual y no por tiempo.

10.La instrucción se hace con material didáctico que refleja situaciones de trabajo reales y experiencias en el trabajo.

11.Los materiales didácticos de estudio son modulares, incluyen una variedad de medios de comunicación, son flexibles en cuanto a materias obligatorias y las opcionales

12.El programa en su totalidad es cuidadosamente planeado y la evaluación sistemática es aplicada para mejorar continuamente el programa.

13.Debe evitarse la instrucción frecuente en grupos grandes.

14.La enseñanza debe ser menos dirigida a exponer temas y más al proceso de aprendizaje de los individuos.

15.Hechos, conceptos, principios y otro tipo de conocimiento deben ser parte integral de las tareas y funciones.

16.Requiere la participación de los trabajadores y el sindicato en la estrategia de capacitación desde la identificación de las competencias.

SOFTWARE


SOFTWARE
palabra proveniente del inglés (literalmente: partes blandas o suaves), que en nuestro idioma no posee una traducción adecuada al contexto, por lo cual se utiliza asiduamente sin traducir y fue admitida por la Real Academia Española (RAE).
La palabra «software» se refiere al equipamiento lógico o soporte lógico de un computador digital, comprende el conjunto de los componentes lógicos necesarios para hacer posible la realización de una tarea específica, en contraposición a los componentes físicos del sistema (hardware).


Fig. 1 - Exposición de interfaces y ventanas de Programas vistas en una pantalla
Tales componentes lógicos incluyen, entre otros, aplicaciones informáticas tales como procesador de textos, que permite al usuario realizar todas las tareas concernientes a edición de textos; software de sistema, tal como un sistema operativo, el que, básicamente, permite al resto de los programas funcionar adecuadamente, facilitando la interacción con los componentes físicos y el resto de las aplicaciones, también provee una interface ante el usuario.
En la figura 1 se muestra uno o más softwares en ejecución, en este caso con ventanas, iconos y menúes que componen las interfaces gráficas, que comunican el ordenador con el usuario y le permiten interactuar.
Clasificación del software
Si bien esta distinción es, en cierto modo, arbitraria, y a veces confusa, se puede clasificar al software de la siguiente forma:
Software de sistema: Es aquel que permite que el hardware funcione. Su objetivo es desvincular adecuadamente al programador de los detalles del computador en particular que se use, aislándolo especialmente del procesamiento referido a las características internas de: memoria, discos, puertos y dispositivos de comunicaciones, impresoras, pantallas, teclados, etc. El software de sistema le procura al usuario y programador adecuadas interfaces de alto nivel y utilidades de apoyo que permiten su mantenimiento. Incluye entre otros:
Sistemas operativos
Controladores de dispositivo
Herramientas de diagnóstico
Herramientas de Corrección y Optimización
Servidores
Utilidades
Software de programación: Es el conjunto de herramientas que permiten al programador desarrollar programas informáticos, usando diferentes alternativas y lenguajes de programación, de una manera práctica. Incluye entre otros:
Editores de texto
Compiladores
Intérpretes
Enlazadores
Depuradores
Entornos de Desarrollo Integrados (IDE): Agrupan las anteriores herramientas, usualmente en un entorno visual, de forma que el programador no necesite introducir múltiples comandos para compilar, interpretar, depurar, etc.. Habitualmente cuentan con una avanzada interfaz gráfica de usuario (GUI).
Software de aplicación: Aquel que permite a los usuarios llevar a cabo una o varias tareas específicas, en cualquier campo de actividad susceptible de ser automatizado o asistido, con especial énfasis en los negocios. Incluye entre otros:
Aplicaciones de Sistema de control y automatización industrial
Aplicaciones ofimáticas
Software educativo
Software médico
Software de Cálculo Numérico
Software de Diseño Asistido (CAD)
Software de Control Numérico (CAM)
Proceso de creación de software
Se define como Proceso al conjunto ordenado de pasos a seguir para llegar a la solución de un problema u obtención de un producto, en este caso particular, para lograr la obtención de un producto software que resuelva un problema.
Ese proceso de creación de software puede llegar a ser muy complejo, dependiendo de su porte, características y criticidad del mismo. Por ejemplo la creación de un sistema operativo es una tarea que requiere proyecto, gestión, numerosos recursos y todo un equipo disciplinado de trabajo. En el otro extremo, si se trata de un sencillo programa (ejemplo: resolución de una ecuación de segundo orden), éste puede ser realizado por un solo programador (incluso aficionado) fácilmente. Es así que normalmente se dividen en tres categorías según su tamaño (líneas de código) y/o costo: de Pequeño, Mediano y Gran porte. Existen varias metodologías para estimarlo, una de las más populares es el sistema COCOMO que provee métodos y un software (programa) que calcula estimadamente todos los costos de producción en un "proyecto software" (relación horas/hombre, costo monetario, cantidad de líneas fuente de acuerdo a lenguaje usado, etc.).
Considerando los de gran porte, es necesario realizar tantas y tan complejas tareas, tanto técnicas, de gerenciamiento, fuerte gestión y análisis diversos (entre otras) que toda una ingeniería hace falta para su estudio y realización: es la Ingeniería de Software.
En tanto que en los de mediano porte, pequeños equipos de trabajo (incluso un avesado analista-programador solitario) puede realizar la tarea. Aunque, siempre en casos de mediano y gran porte (y a veces también en algunos de pequeño porte, según su complejidad), se deben seguir ciertas etapas que son necesarias para la construcción del software. Tales etapas, si bien deben existir, son flexibles en su forma de aplicación, de acuerdo a la metodología o Proceso de Desarrollo escogido y utilizado por el equipo de desarrollo o analista-programador solitario (si fuere el caso).
Los "procesos de desarrollo de software" poseen reglas preestablecidas, y deben ser aplicados en la creación del software de mediano y gran porte, ya que en caso contrario lo más seguro es que el proyecto o no logre concluir o termine sin cumplir los objetivos previstos y con variedad de fallos inaceptables (fracasan, en pocas palabras). Entre tales "procesos" los hay ágiles o livianos (ejemplo XP), pesados y lentos (ejemplo RUP) y variantes intermedias; y normalmente se aplican de acuerdo al tipo y porte y tipología del software a desarrollar, a criterio del líder (si lo hay) del equipo de desarrollo. Algunos de esos procesos son Extreme Programming (XP), Rational Unified Process (RUP), Feature Driven Development (FDD), etc.
Cualquiera sea el "proceso" utilizado y aplicado en un desarrollo de software (RUP, FDD, etc), y casi independientemente de él, siempre se debe aplicar un "Modelo de Ciclo de Vida".
Se estima que, del total de proyectos software grandes emprendidos, un 28% fracasan, un 46% caen en severas modificaciones que lo retrazan y un 26% son totalmente exitosos. Cuando un proyecto fracasa, rara vez es debido a fallas técnicas, la principal causa de fallos y fracasos es la falta de aplicación de una buena metodología o proceso de desarrollo. Entre otras, una fuerte tendencia, desde hace pocas décadas, es mejorar las metodologías o procesos de desarrollo, o crear nuevas y concientizar a los profesionales en su utilización adecuada. Normalmente los especialistas en el estudio y desarrollo de estas áreas (metodologías) y afines (tales como modelos y hasta la gestión misma de los proyectos) son los Ingenieros en Software, es su orientación. Los especialistas en cualquier otra área de desarrollo informático (analista, programador, Lic. en Informática, Ingeniero en Informática, Ingeniero de Sistemas, etc.) normalmente aplican sus conocimientos especializados pero utilizando modelos, paradigmas y procesos ya elaborados.
Es común para el desarrollo de software de mediano porte que los equipos humanos involucrados apliquen sus propias metodologías, normalmente un híbrido de los procesos anteriores y a veces con criterios propios.
El proceso de desarrollo puede involucrar numerosas y variadas tareas, desde lo administrativo, pasando por lo técnico y hasta la gestión y el gerenciamiento. Pero casi rigurosamente siempre se cumplen ciertas etapas mínimas; las que se pueden resumir como sigue:
Captura Especificación y Análisis de requisitos (ERS)
Diseño
Codificación
Pruebas (unitarias y de integración)
Instalación y paso a Producción
Mantenimiento
En las anteriores etapas pueden variar ligeramente sus nombres, o ser más globales, o contrariamente más refinadas; por ejemplo indicar como una única fase (a los fines documentales e interpretativos) de "Análisis y Diseño"; o indicar como "Implementación" lo que está dicho como "Codificación"; pero en rigor, todas existen e incluyen, básicamente,las mismas tareas específicas.
En el apartado 4 del presente artículo se brindan mayores detalles de cada una de las listadas etapas.
Modelos de Proceso o Ciclo de Vida
Para cada una las fases o etapas listadas en el ítem anterior, existen sub-etapas (o tareas). El Modelo de Proceso o Modelo de Ciclo de Vida utilizado para el desarrollo define el orden para las tareas o actividades involucradas, también definen la coordinación entre ellas, enlace y realimentación entre las mencionadas etapas. Entre los más conocidos se puede mencionar: Modelo en Cascada o secuencial, Modelo Espiral, Modelo Iterativo Incremental. De los antedichos hay a su vez algunas variantes o alternativas, más o menos atractivas según sea la aplicación requerida y sus requisitos.
Modelo Cascada
Este, aunque es más comunmente conocido como Modelo en cascada es también llamado "Modelo Clásico", "Modelo Tradicional" o "Modelo Lineal Secuencial".
El Modelo en cascada puro difícilmente se utilice tal cual, pues esto implicaría un previo y absoluto conocimiento de los requisitos, la no volatilidad de los mismos (o rigidez) y etapas subsiguientes libres de errores; ello sólo podría ser aplicable a escasos y pequeños desarrollos de sistemas. En estas circunstancias, el paso de una etapa a otra de las mencionadas sería sin retorno, por ejemplo pasar del Diseño a la Codificación implicaría un diseño exacto y sin errores ni probable modificación o evolución: "codifique lo diseñado que no habrán en absoluto variantes ni errores". Esto es utópico; ya que intrínsecamente el software es de carácter evolutivo, cambiante y difícilmente libre de errores, tanto durante su desarrollo como durante su vida operativa.
Algún cambio durante la ejecución de una cualquiera de las etapas en este modelo secuencial implicaría reinciar desde el principio todo el ciclo completo, lo cual redundaría en altos costos de tiempo y desarrollo. La figura 2 muestra un posible esquema de el modelo en cuestión.
Sin embargo, el modelo cascada en algunas de sus variantes es uno de los actualmente más utilizados, por su eficacia y simplicidad, más que nada en software de pequeño y algunos de mediano porte; pero nunca (o muy rara vez) se lo usa en su forma pura, como se dijo anteriormente. En lugar de ello, siempre se produce alguna realimentación entre etapas, que no es completamente predecible ni rígida; esto da oportunidad al desarrollo de productos software en los cuales hay ciertas incertezas, cambios o evoluciones durante el ciclo de vida. Así por ejemplo, una vez capturados (elicitados) y especificados los requisitos (primera etapa) se puede pasar al diseño del sistema, pero durante esta última fase lo más probable es que se deban realizar ajustes en los requisitos (aunque sean mínimos), ya sea por fallas detectadas, ambiguedades o bien por que los propios requisitos han cambiado o evolucionado; con lo cual se debe retornar a la primera o previa etapa, hacer los pertinentes reajustes y luego continuar nuevamente con el diseño; esto último se conoce como realimentación. Lo normal en el modelo cascada será entonces la aplicación del mismo con sus etapas realimentadas de alguna forma, permitiendo retroceder de una a la anterior (e incluso poder saltar a varias anteriores) si es requerido.

Lo dicho es, a grandes rasgos, la forma y utilización de este modelo, uno de los más usados y populares. El modelo Cascada Realimentado resulta muy atractivo, hasta ideal, si el proyecto presenta alta rigidéz (pocos o ningún cambio, no evolutivo), los requisitos son muy claros y están correctamente especificados.
Hay más variantes similares al modelo: refino de etapas (más estapas, menores y más específicas) e incluso mostrar menos etapas de las indicadas, aunque en tal caso la faltante estará dentro de alguna otra. El orden de esas fases indicadas en el ítem previo es el lógico y adecuado, pero adviértase, como se dijo, que normalmente habrá realimentación hacia atrás.
El modelo lineal o en Cascada es el paradigma más antiguo y extensamente utilizado, sin embargo las críticas a él ( ver desventajas) han puesto en duda su eficacia. Pese a todo tiene un lugar muy importante en la Ingeniería de software y continúa siendo el más utilizado; y siempre es mejor que un enfoque al azar.
Modelos Evolutivos
El software evoluciona con el tiempo. Los requisitos del usuario y del producto suelen cambiar conforme se desarrolla el mismo. Las fechas de mercado y la competencia hacen que no sea posible esperar a poner en el mercado un producto absolutamente completo, por lo que se debe introducir una versión funcional limitada de alguna forma para aliviar las presiones competitivas.
En esas u otras situaciones similares los desarrolladores necesitan modelos de progreso que esten diseñados para acomodarse a una evolución temporal o progresiva, donde los requisitos centrales son conocidos de antemano, aunque no esten bien definidos a nivel detalle.
En el modelo Cascada y Cascada Realimentado no se tiene en cuenta la naturaleza evolutiva del software, se plantea como estático con requisitos bien conocidos y definidos desde el inicio.
Los evolutivos son modelos iterativos, permiten desarrollar versiones cada vez más completas y complejas, hasta llegar al objetivo final deseado; incluso evolucionar más allá, durante la fase de operación.
Los modelos “Iterativo Incremental” y “Espiral” (entre otros) son dos de los más conocidos y utilizados del tipo evolutivo.
Modelo Iterativo Incremental
En términos generales, podemos distinguir, en la figura 4, los pasos generales que sigue el proceso de desarrollo de un producto software. En el modelo de ciclo de vida seleccionado, se identifican claramente dichos pasos. La Descripción del Sistema es esencial para especificar y confeccionar los distintos incrementos hasta llegar al Producto global y final. Las actividades concurrentes (Especificación, Desarrollo y Validación) sintetizan el desarrollo pormenorizado de los incrementos, que se hará posteriormente.

El diagrama 4 nos muestra en forma muy esquemática, el funcionamiento de un Ciclo Iterativo Incremental, el cual permite la entrega de versiones parciales a medida que se va construyendo el producto final. Es decir, a medida que cada incremento definido llega a su etapa de operación y mantenimiento. Cada versión emitida incorpora a los anteriores incrementos las funcionalidades y requisitos que fueron analizados como necesarios.
En la figura 5 se muestra un refino del diagrama previo, bajo un esquema temporal, para obtener finalmente el esquema del Modelo de ciclo de vida Iterativo Incremental, con sus actividades genéricas asociadas. Aquí se observa claramente cada ciclo cascada que es aplicado para la obtención de un incremento; estos últimos se van integrando para obtener el producto final completo. Cada incremento es un ciclo Cascada Realimentado, aunque, Por simplicidad, en la figura 5 se muestra como secuencial puro.
Se observa que existen actividades de desarrollo (para cada incremento) que son realizadas en paralelo o concurrentemente, así por ejemplo, en la figura, mientras se realiza el diseño detalle del primer incremento ya se está realizando en análisis del segundo. La figura 5 es sólo esquemática, un incremento no necesariamente se iniciará durante la fase de diseño del anterior, puede ser posterior (incluso antes), en cualquier tiempo de la etapa previa. Cada incremento concluye con la actividad de “Operación y Mantenimiento” (indicada "Operación" en la figura), que es donde se produce la entrega del producto parcial al cliente. El momento de inicio de cada incremento es dependiente de varios factores: tipo de sistema; independencia o dependencia entre incrementos (dos de ellos totalmente independientes pueden ser fácilmente iniciados al mismo tiempo si se dispone de personal suficiente); capacidad y cantidad de profesionales involucrados en el desarrollo; etc.
Bajo este modelo se entrega software “por partes funcionales más pequeñas” , pero reutilizables, llamadas incrementos. En general cada incremento se construye sobre aquel que ya fue entregado.
Como se muestra en la figura 5, se aplican secuencias Cascada en forma escalonada, mientras progresa el tiempo calendario. Cada secuencia lineal o Cascada produce un incremento y a menudo el primer incremento es un sistema básico, con muchas funciones suplementarias (conocidas o no) sin entregar.
El cliente utiliza inicialmente ese sistema básico intertanto, el resultado de su uso y evaluación puede aportar al plan para el desarrollo del/los siguientes incrementos (o versiones). Además también aportan a ese plan otros factores, como lo es la priorización (mayor o menor urgencia en la necesidad de cada incremento) y la dependencia entre incrementos (o independencia).
Luego de cada integración se entrega un producto con mayor funcionalidad que el previo. El proceso se repite hasta alcanzar el software final completo.
El enfoque Incremental resulta muy útil con baja dotación de personal para el desarrollo; también si no hay disponible fecha límite del proyecto por lo que se entregan versiones incompletas pero que proporcionan al usuario funcionalidad básica (y cada vez mayor). También es un modelo útil a los fines de evaluación.
.
El modelo es aconsejable para el desarrollo de software en el cual se observe, en su etapa inicial de análisis, que posee áreas bastante bien definidas a cubrir, con suficiente independencia como para ser desarrolladas en etapas sucesivas. Tales áreas a cubrir suelen tener distintos grados de apremio por lo cual las mismas se deben priorizar en un análisis previo, es decir, definir cual será la primera, la segunda, y así sucesivamente; esto se conoce como “definición de los incrementos” en base a priorización. Pueden no existir prioridades funcionales por parte del cliente, pero el desarrollador debe fijarlas de todos modos y con algún criterio, ya que en base a ellas se desarrollarán y entregarán los distintos incrementos.
En resumen, un modelo Incremental lleva a pensar en un desarrollo modular, con entregas parciales del producto software denominados “incrementos” del sistema, que son escogidos en base a prioridades predefinidas de algún modo. El modelo permite una implementación con refinamientos sucesivos (ampliación y/o mejora). Con cada incremento se agrega nueva funcionalidad o se cubren nuevos requisitos o bien se mejora la versión previamente implementada del producto software.
La selección de este modelo permite realizar entregas funcionales tempranas al cliente (lo cual es beneficioso tanto para él como para el grupo de desarrollo). Se priorizan las entregas de aquellos módulos o incrementos en que surja la necesidad operativa de hacerlo, por ejemplo para cargas previas de información, indispensable para los incrementos siguientes.
El modelo Iterativo Incremental no obliga a especificar con precisión y detalle absolutamente todo lo que el sistema debe hacer, (y cómo), antes de ser construido (como el caso del cascada, con requisitos congelados). Sólo se hace en el incremento en desarrollo. Esto torna más manejable el proceso y reduce el impacto en los costos. Esto es así, porque en caso de alterar o rehacer los requisitos, solo afecta una parte del sistema. Aunque, lógicamente, esta situación se agrava si se presenta en estado avanzado, es decir
Modelo Espiral
El Modelo Espiral fué propuesto inicialmente por Barry Boehm. Es un modelo evolutivo que conjuga la naturaleza iterativa del modelo MCP con los aspectos controlados y sistemáticos del Modelo Cascada. Proporciona potencial para desarrollo rápido de versiones incrementales. En el modelo Espiral el software se construye en una serie de versiones incrementales. En las primeras iteraciones la versión incremental podría ser un modelo en papel o bien un prototipo. En las últimas iteraciones se producen versiones cada vez más completas del sistema diseñado
El modelo se divide en un número de Actividades de marco de trabajo, llamadas "regiones de tareas". En general existen entre tres y seis regiones de tareas (hay variantes del modelo). En la figura 6 se muestra el esquema de un Modelo Espiral con 6 regiones. En este caso se explica una variante del modelo original de Boehm, expuesto en su tratado de 1988; en 1998 expuso un tratado más reciente.

Las regiones definidas en el modelo de la figura son:
Región 1 - Tareas requeridas para establecer la comunicación entre el cliente y el desarrollador.
Región 2 - Tareas inherentes a la definición de los recursos, tiempo y otra información relacionada con el proyecto.
Región 3 - Tareas neesarias para evaluar los riesgos técnicos y de gestión del proyecto.
Región 4 - Tareas para construir una o más representaciones de la aplicación software.
Región 5 - Tareas para construir la aplicación, instalarla, probarla y proporcionar soporte al usuario o cliente (Ej. documentación y práctica).
Región 6 - Tareas para obtener la reacción del cliente, según la evaluación de lo creado e instalado en los ciclos anteriores.
, grande, mediano o pequeño, complejo o no. Las regiones que definien esas actividades comprenden un "conjunto de tareas" del trabajo: ese conjunto si se debe adaptar a las características del proyecto en particular a emprender. Nótese que lo listado en los ítems de 1 a 6 son conjuntos de tareas, algunas de las ellas normalmente dependen del proyecto o desarrollo en si.
Proyectos pequeños requieren baja cantidad de tareas y también de formalidad. En proyectos mayores o críticos cada región de tareas contiene labores de más alto nivel de formalidad. En cualquier caso se aplican actividades de protección (por ejemplo, gestión de configuración del software, garantía de calidad, etc.).
Al inicio del ciclo, o proceso evolutivo, el equipo de ingeniería gira alrededor del espiral (metafóricamente hablando) comenzando por el centro (marcado con ๑ en la figura 6) y en el sentido indicado; el primer circuito de la espiral puede producir el desarrollo de una especificación del producto; los pasos siguientes podrían generar un prototipo y progresivamente versiones más sofisticadas del software.
Cada paso por la región de planificación provoca ajustes en el plan del proyecto; el coste y planificación se realimentan en función de la evaluación del cliente. El gestor de proyectos debe ajustar el número de iteraciones requeridas para completar el desarrollo.
El modelo espiral puede ir adaptándose y aplicarse a lo largo de todo el ciclo de vida del software (en el modelo clásico, o cascada, el proceso termina a la entrega del software).
Una visión alternativa del modelo puede observarse examinando el "eje de punto de entrada de proyectos". Cada uno de los circulitos (๏) fijados a lo largo del eje representan puntos de arranque de los distintos proyectos (relacionados); a saber:

Un proyecto de "Desarrollo de Conceptos" comienza al inicio de la espiral, hace múltiples iteraciones hasta que se completa, es la zona marcada con verde.
Si lo anterior se va a desarrollar como producto real, se incia otro proyecto: "Desarrollo de nuevo Producto". Que evolucionará con iteraciones hasta culminar; es la zona marcada en color azul.
Eventual y análogamente se generarán proyectos de "Mejoras de Productos" y de "Mantenimiento de productos", con las iteraciones necesarias en cada área (zonas roja y gris, respectivamente).
Cuando la espiral se caracteriza de esta forma, está operativa hasta que el software se retira, eventualmente puede estar inactiva (el proceso), pero cuando se produce un cambio el proceso arranca nuevamente en el punto de entrada apropiado (por ejemplo, en "Mejora del Producto").
El modelo espiral da un enfoque realista, que evoluciona igual que el software; se adapta muy bien para desarrollos a gran escala.
El Espiral utiliza el MCP para reducir riesgos y permite aplicarlo en cualquier etapa de la evolución. Mantiene el enfoque clásico (cascada) pero incorpora un marco de trabajo iterativo que refleja mejor la realidad.
Este modelo requiere considerar riesgos técnicos en todas las etapas del proyecto; aplicado adecuadamente debe reducirlos antes de que sean un verdadero problema.
El Modelo evolutivo como el Espiral es particularmente apto para el desarrollo de Sistemas Operativos (complejos); también en sistemas de altos riesgos o críticos (Ej. navegadores y controladores aeronáuticos) y en todos aquellos en que sea necesaria una fuerte gestión del proyecto y sus riesgos, técnicos o de gestión.
Desventajas importantes:
Requiere mucha experiencia y habilidad para la evaluación de los riesgos, lo cual es requisito para el éxito del proyecto.
Es difícil convencer a los grandes clientes que se podrá controlar este enfoque evolutivo.
Este modelo no se ha usado tanto, como el Cascada (Incremental) o MCP, por lo que no se tiene bien medida su eficacia, es un paradigma relativamente nuevo y difícil de implementar y controlar
Modelo Espiral Win & Win
.
Una variante interesante del Modelo Espiral previamente visto (Fig. 6) es el "Modelo Espiral Win-Win" (Barry Boehm). El Modelo Espiral previo (clásico) sugiere la comunicación con el cliente para fijar los requisitos, en que simplemente se pregunta al cliente qué necesita y él proporciona la información para continuar; pero esto es en un contexto ideal que rara vez ocurre. Normalmente cliente y desarrollador entran en una negociación, se negocia coste frente a funcionalidad, rendimiento, calidad, etc.
Las mejores negociaciones se fuerzan en obtener "Victoria & Victoria" (Win & Win), es decir que el cliente gane obteniendo el producto que lo satisfaga, y el desarrollador también gane consiguiendo presupuesto y fecha de entrega realista. Evidentemente, este modelo requiere fuertes habilidades de negociación.
El modelo Win-Win define un conjunto de actividades de negociación al principio de cada paso alrededor de la espiral; se definen las siguientes actividades:
1 - Identificación del sistema o subsistemas clave de los directivos(*) (saber qué quieren).
2 - Determinación de "condiciones de victoria" de los directivos (saber qué necesitan y los satisface)
3 - Negociación de las condiciones "victoria" de los directivos para obtener condiciones "Victoria & Victoria" (negociar para que ambos ganen).
Etapas en el Desarrollo de Software
Captura, Análisis y Especificación de requisitos
Al inicio de un desarrollo (no de un proyecto), esta es la primera fase que se realiza, y, según el modelo de proceso adoptado, puede casi terminar para pasar a la próxima etapa (caso de Modelo Cascada Realimentado) o puede hacerse parcialmente para luego retomarla (caso Modelo Iterativo Incremental u otros de carácter evolutivo).
En simple palabras y básicamente, durante esta fase, se adquieren, reúnen y especifican las características funcionales y no funcionales que deberá cumplir el futuro programa o sistema a desarrollar.
Las bondades de las características, tanto del sistema o programa a desarrollar, como de su entorno, parámetros no funcionales y arquitectura dependen enormemente de lo bien lograda que esté esta etapa. Esta es, probablemente, la de mayor importancia y una de las fases más difíciles de lograr certeramente, pues no es automatizable, no es muy técnica y depende en gran medida de la habilidad y experiencia del analista que la realice.
Involucra fuertemente al usuario o cliente del sistema, por tanto tiene matices muy subjetivos y es difícil de modelar con certeza y/o aplicar una técnica que sea "la más cercana a la adecuada" (de hecho no existe "la estrictamente adecuada"). Si bien se han ideado varias metodologías, incluso software de apoyo, para captura, elicitación y registro de requisitos, no existe una forma infalible o absolutamente confiable, y deben aplicarse conjuntamente buenos criterios y mucho sentido común por parte del o los analistas encargados de la tarea; es fundamental también lograr una fluida y adecuada comunicación y comprensión con el usuario final o cliente del sistema.
El artefacto más importante resultado de la culminación de esta etapa es lo que se conoce como Especificación de Requisitos Software o simplemente documento ERS.
Como se dijo, la habilidad del analista para interactuar con el cliente es fundamental; lo común es que el cliente tenga un objetivo general o problema a resolver, no conoce en absoluto el área (informática), ni su jerga, ni siquiera sabe con precisión qué debería hacer el producto software (qué y cuantas funciones) ni, mucho menos, cómo debe operar. En otros casos menos frecuentes, el cliente "piensa" que sabe precisamente lo que el software tiene que hacer, y generalmente acierta muy parcialmente, pero su empecinamiento entorpece la tarea de elicitación. El analista debe tener la capacidad para lidiar con este tipo de problemas, que incluyen relaciones humanas; tiene que saber ponerse al nivel del usuario para permitir una adecuada comunicación y comprensión.
Escasas son las situaciones en que el cliente sabe con certeza e incluso con completitud lo que requiere de su futuro sistema, este es el caso más sencillo para el analista.
La tareas relativas a captura, elicitación, modelado y registro de requerimientos, además de ser sumamente importante, puede llegar a ser dificultosa de lograr acertadamente y llevar bastante tiempo relativo al proceso total del desarrollo; al proceso y metodologías para llevar a cabo este conjunto de actividades normalmente se las asume parte propia de la Ingeniería de Software, pero dada la antedicha complejidad, actualmente se habla de una Ingeniería en Requisitos[3] , aunque ella aun no existe formalmente.
Hay grupos de estudio e investigación, en todo el mundo, que están exclusivamente abocados a la idear modelos, técnicas y procesos para intentar lograr la correcta captura, análisis y registro de requerimientos. Estos grupos son los que normalmente hablan de la Ingeniería en Requisitos; es decir se plantea ésta como un área o disciplina pero no como una carrera universitaria en si misma.
Algunos requisitos no necesitan la presencia del cliente, para ser capturados y/o analizados; en ciertos casos los puede proponer el mismo analista o, incluso, adoptar unilateralmente decisiones que considera adecuadas (tanto en requerimientos funcionales como no funcionales). Por citar ejemplos probables: Algunos requisitos sobre la arquitectura del sistema, requisitos no funcionales tales como los relativos al rendimiento, nivel de soporte a errores operativos, plataformas de desarrollo, relaciones internas o ligas entre la información (entre registros o tablas de datos) a almacenar en caso de bases o bancos de datos, etc. Algunos funcionales tales como opciones secundarias o de soporte necesarias para una mejor o más sencilla operatividad; etc.
La obtención de especificaciones a partir del cliente (u otros actores intervinientes) es un proceso humano muy interactivo e iterativo; normalmente a medida que se captura la información, se la analiza y realimenta con el cliente, refinándola, puliéndola y corrigiendo si es necesario; cualquiera sea el método de ERS utilizado. EL analista siempre debe llegar a conocer la temática y el problema a resolver, dominarlo, hasta cierto punto, hasta el ámbito que el futuro sistema a desarrollar lo abarque. Por ello el analista debe tener alta capacidad para comprender problemas de muy diversas áreas o disciplinas de trabajo (que no son específicamente suyas); así por ejemplo, si el sistema a desarrollar será para gestionar información de una aseguradora y sus sucursales remotas, el analista se debe compenetrar en cómo ella trabaja y maneja su información, desde niveles muy bajos e incluso llegando hasta los gerenciales. Dada a gran diversidad de campos a cubrir, los analistas suelen ser asistidos por especialistas, es decir gente que conoce profundamente el área para la cual se desarrollará el software; evidentemente una única persona (el analista) no puede abarcar tan vasta cantidad de áreas del conocimiento. En empresas grandes de desarrollo de productos software, es común tener analistas especializados en ciertas áreas de trabajo.
Contrariamente, no es problema del cliente, es decir él no tiene por qué saber nada de software, ni de diseños, ni otras cosas relacionadas; sólo se debe limitar a aportar objetivos, datos e información (de mano propia o de sus registros, equipos, empleados, etc) al analista, y guiado por él, para que, en primera instancia, defina el "Universo de Discurso", y con posterior trabajo logre confeccionar el adecuado documento ERS.
Es bien conocida la presión que sufren los desarrolladores de sistemas informáticos para comprender y/o rescatar las necesidades de los clientes/usuarios. Cuanto más complejo es el contexto del problema más difícil es lograrlo, a veces se fuerza a los desarrolladores a tener que convertirse en casi expertos de los dominios que analizan.

Procesos, modelado y formas de elicitación de requisitos
Siendo que la captura, elicitación y especificación de requisitos, es una parte crucial en el proceso de desarrollo de software, ya que de esta etapa depende el logro de los objetivos finales previstos, se han ideado modelos y diversas metodologías de trabajo para estos fines. También existen herramientas software que apoyan las tareas relativas realizadas por el ingeniero en requisitos.
El estándar IEEE 830-1998 brinda una normalización de las "Prácticas Recomendadas para la Especificación de Requisitos Software" [5] .
A medida que se obtienen los requisitos, normalmente se los va analizando, el resultado de este análisis, con o sin el cliente, se plasma en un documento, conocido como ERS o Especificación de Requisitos Software, cuya estructura puede venir definida por varios estándares, tales como CMM-I.
Un primer paso para realizar el relevamiento de información es el conocimiento y definición acertada lo que se conoce como "Universo de Discurso" del problema, que se define y entiende por:
Universo de Discurso (UdeD):
es el contexto general en el cual el software deberá ser desarrollado y deberá operar. El UdeD incluye todas las fuentes de información y todas las personas relacionadas con el software. Esas personas son conocidas también como actores de ese universo. El UdeD es la realidad circunstanciada por el conjunto de objetivos definidos por quienes demandaron el software.
A partir de la extracción y análisis de información en su ámbito se obtienen todas las especificaciones necesarias y tipos de requisitos para el futuro producto software.
El objetivo de la Ingeniería de Requisitos (IR) es sistematizar el proceso de definición de requisitos permitiendo elicitar, modelar y analizar el problema, generando un compromiso entre los Ingenieros de Requisitos y los clientes/usuarios, ya que ambos participan en la generación y definición de los requisitos del sistema. La IR aporta un conjunto de métodos, técnicas y herramientas que asisten a los ingenieros de requisitos (analistas) para obtener requerimientos lo más seguros, veraces, completos y oportunos posibles, permitiendo básicamente:
Comprender el problema
Facilitar la obtención de las necesidades del cliente/usuario
Validar con el cliente/usuario
Garantizar las especificaciones de requisitos
Si bien existen diversas formas, modelos y metodologías para elicitar, definir y documentar requerimientos, no se puede decir que alguna de ellas sea mejor o peor que la otra, suelen tener muchísimo en común, y todas cumplen el mismo objetivo. Sin embargo, lo que si se puede decir sin dudas es que es indispensable utilizar alguna de ellas para documentar las especificaciones del futuro producto software. Así por ejemplo, hay un grupo de investigación argentino que desde hace varios años ha propuesto y estudia el uso del LEL (Léxico Extendido del Lenguaje) y Escenarios como metodología, aqui [6] se presenta una de las tantas referencias y bibliografía sobre ello. Otra forma, más ortodoxa, de capturar y documentar requisitos se puede obtener en detalle, por ejemplo, en el trabajo de la Universidad de Sevilla sobre "Metodología para el Análisis de Requisitos de Sistemas Software" [7] .
En la Fig. 7 se muestra un esquema, más o menos riguroso, aunque no detallado, de los pasos y tareas a seguir para realizar la captura, análisis y especificación de requerimientos software. También allí se observa qué artefacto o documento se obtiene en cada etapa del proceso. En el diagrama no se explicita metodología o modelo a utilizar, sencillamente se pautan las tareas que deben cumplirse, de alguna manera.



Fig. 7 - Diagrama de tareas para captura y análisis de Requisitos
Una posible lista general y ordenada de tareas recomendadas para obtener la definición de lo que se debe realizar,los productos a obtener y las técnicas a emplear durante la actividad de elicitación de requisitos de la fase de ingeniería de requisitos del desarrollo de software es:
1 - Obtener información sobre el dominio del problema y el sistema actual (UdeD).
2 - Preparar y realizar las reuniones para elicitación/negociación.
3 - Identificar/revisar los objetivos del usuario.
4 - Identificar/revisar los objetivos del sistema.
5 - Identificar/revisar los requisitos de información.
6 - Identificar/revisar los requisitos funcionales.
7 - Identificar/revisar los requisitos no funcionales.
8 - Priorizar objetivos y requisitos.
Algunos principios básicos a tener en cuenta:
Presentar y entender cabalmente el dominio de la información del problema.
Definir correctamente las funciones que debe realizar el Software.
Representar el comportamiento del software a consecuencias de acontecimientos externos, particulares, incluso inesperados.
Reconocer requisitos incompletos, ambiguos o contradictorios.
Dividir claramente los modelos que representan la información, las funciones y comportamiento y características no funcionales.
· 1. Requisitos del producto. Especifican el comportamiento del producto (Ej. prestaciones, memoria, tasa de fallos, etc.)
· 2. Requisitos organizativos. Se derivan de las políticas y procedimientos de las organizaciones de los clientes y desarrolladores (Ej. estándares de proceso, lenguajes de programación, etc.)
· 3. Requisitos externos. Se derivan de factores externos al sistema y al proceso de desarrollo (Ej. requisitos legislativos, éticos, etc.)
Diseño del Sistema
Codificación del software
Durante esta la etapa se realizan las tareas que comúnmente se conocen como programación; que consiste, esencialmente, en llevar a código fuente, en el lenguaje de programación elegido, todo lo diseñado en la fase anterior. Esta tarea la realiza el programador, siguiendo por completo los lineamientos impuestos en el diseño y en consideración siempre a los requisitos funcionales y no funcionales (ERS) especificados en la primera etapa.
Es común pensar que la etapa de programación o codificación (algunos la llaman implementación) es la que insume la mayor parte del trabajo de desarrollo del software; sin embargo, esto puede ser relativo (y generalmente aplicable a sistemas de pequeño porte) ya que las etapas previas son cruciales, críticas y pueden llevar bastante más tiempo. Se suele hacer estimaciones de un 30% del tiempo total insumido en la programación, pero esta cifra no es consistente ya que depende en gran medida de las características del sistema, su criticidad y el lenguaje de programación elegido. En tanto menor es el nivel del lenguaje mayor será el tiempo de programación requerido, así por ejemplo se tardaría más tiempo en codificar un algoritmo en Assembly que el mismo programado en lenguaje C.
Mientras se programa la aplicación, sistema, o software en general, se realizan también tareas de depuración, esto es la labor de ir liberando al código de los errores factibles de ser hallados en esta fase (de semántica, sintáctica y lógica). Hay una suerte de solapamiento con la fase siguiente, ya que para depurar la lógica es necesario realizar pruebas unitarias, normalmente con datos de prueba; claro es que no todos los errores serán encontrados sólo en la etapa de programación, habrán otros que se encontrarán durante las etapas subsiguientes. La aparición de algún error funcional (mala respuesta a los requerimientos) eventualmente puede llevar a retornar a la fase de diseño antes de continuar la codificación.
Durante la fase de programación, el código puede adoptar varios estados, dependiendo de la forma de trabajo y del lenguaje elegido, a saber:
Código fuente: Es el escrito directamente por los programadores en editores de texto, lo cual genera el programa. Contiene el conjunto de instrucciones codificadas en algún lenguaje de alto nivel. Puede estar distribuido en paquetes, procedimientos, librerías fuente, etc.
Código objeto: Es el código binario o intermedio resultante de procesar con un compilador el código fuente. Consiste en una traducción completa y de una sola vez de éste último. El código objeto no es inteligible por el ser humano (normalmente es formato binario) pero tampoco es directamente ejecutable por la computadora. Se trata de una representación intermedia entre el código fuente y el código ejecutable, a los fines de un enlace final con las rutinas de librería y entre procedimientos o bien para su uso con un pequeño intérprete intermedio [a modo de distintos ejemplos véase EUPHORIA, (intérprete intermedio), FORTRAN (compilador puro) MSIL (intérprete) y BASIC (intérprete puro, intérprete intermedio, compilador intermedio o compilador puro, depende de la versión utilizada)].
El código objeto no existe si el programador trabaja con un lenguaje a modo de intérprete puro, en este caso el mismo intérprete se encarga de traducir y ejecutar línea por línea el código fuente (de acuerdo al flujo del programa), en tiempo de ejecución. En este caso tampoco existe el o los archivos de código ejecutable. Una desventaja de esta modalidad es que la ejecución del programa o sistema es un poco más lenta que si se hiciera con un intérprete intermedio, y bastante más lenta que si existe el o los archivos de código ejecutable. Es decir no favorece el rendimiento en velocidad de ejecución. Pero una gran ventaja de la modalidad intérprete puro, es que el esta forma de trabajo facilita enormemente la tarea de depuración del código fuente (frente a la alternativa de hacerlo con un compilador puro). Frecuentemente se suele usar una forma mixta de trabajo (si el lenguaje de programación elejido lo permite), es decir inicialmente trabajar a modo de intérprete puro, y una vez depurado el código fuente (liberado de errores) se utiliza un compilador del mismo lenguaje para obtener el código ejecutable completo, con lo cual se agiliza la depuración y la velocidad de ejecución se optimiza.
Código ejecutable: Es el código binario resultado de enlazar uno o más fragmentos de código objeto con las rutinas y librerías necesarias. Constituye uno o más archivos binarios con un formato tal que el sistema operativo es capaz de cargarlo en la memoria RAM (eventualmente también parte en una memoria virtual), y proceder a su ejecución directa. Por lo anterior se dice que el código ejecutable es directamente "inteligible por la computadora". El código ejecutable, también conocido como código máquina, no existe si se programa con modalidad de "intérprete puro".