Blogia

marip-1994

RECURSOS TECNOLOGICOS

1. Enumera los elementos necesarios para emprender un negocio propio ( una empresa)

tener sufientes empleados para que se desarrollen en su campo

tener materia prima

tener sufientes maquinas para emprender el proyecto

 

2. Que recursos tecnologicos debes tener en cuenta

las computadoras, las impresoras, los telefonos y las maquinas con las cuales vamos emprender

 

3. Que es una red inalambrica y como funciona

El término red inalámbrica (Wireless network) en inglés es un término que se utiliza en informática para designar la conexión de nodos sin necesidad de una conexión física (cables), ésta se da por medio de ondas electromagneticas. La transmisión y la recepción se realizan a través de puertos.

Una de sus principales ventajas es notable en los costos, ya que se elimina todo el cable ethernet y conexiones físicas entre nodos, pero también tiene una desventaja considerable ya que para este tipo de red se debe de tener una seguridad mucho mas exigente y robusta para evitar a los intrusos.

En la actualidad las redes inalámbricas son una de las tecnologías más prometedoras.

Categorías

Existen dos categorías de las redes inalámbricas.

  1. Larga distancia: estas son utilizadas para distancias grandes como puede ser otra ciudad u otro país.
  2. Corta distancia: son utilizadas para un mismo edificio o en varios edificios cercanos no muy retirados

Tipos

Cobertura y estándares.

Según su cobertura, se pueden clasificar en diferentes tipos:

[editar] Wireless Personal Area Network

Artículo principal: WPAN

En este tipo de red de cobertura personal, existen tecnologías basadas en HomeRF (estándar para conectar todos los teléfonos móviles de la casa y los ordenadores mediante un aparato central); Bluetooth (protocolo que sigue la especificación IEEE 802.15.1); ZigBee (basado en la especificación IEEE 802.15.4 y utilizado en aplicaciones como la domótica, que requieren comunicaciones seguras con tasas bajas de transmisión de datos y maximización de la vida útil de sus baterías, bajo consumo); RFID (sistema remoto de almacenamiento y recuperación de datos con el propósito de transmitir la identidad de un objeto (similar a un número de serie único) mediante ondas de radio.

[editar] Wireless Local Area Network

Artículo principal: WLAN

En las redes de área local podemos encontrar tecnologías inalámbricas basadas en HiperLAN (del inglés, High Performance Radio LAN), un estándar del grupo ETSI, o tecnologías basadas en Wi-Fi, que siguen el estándar IEEE 802.11 con diferentes variantes.

[editar] Wireless Metropolitan Area Network

Para redes de área metropolitana se encuentran tecnologías basadas en WiMAX (Worldwide Interoperability for Microwave Access, es decir, Interoperabilidad Mundial para Acceso con Microondas), un estándar de comunicación inalámbrica basado en la norma IEEE 802.16. WiMAX es un protocolo parecido a Wi-Fi, pero con más cobertura y ancho de banda. También podemos encontrar otros sistemas de comunicación como LMDS (Local Multipoint Distribution Service).

[editar] Wireless Wide Area Network

Véase también: WAN

En estas redes encontramos tecnologías como UMTS (Universal Mobile Telecommunications System), utilizada con los teléfonos móviles de tercera generación (3G) y sucesora de la tecnología GSM (para móviles 2G), o también la tecnología digital para móviles GPRS (General Packet Radio Service).

Características

Según el rango de frecuencias utilizado para transmitir, el medio de transmisión pueden ser las ondas de radio, las microondas terrestres o por satélite, y los infrarrojos, por ejemplo. Dependiendo del medio, la red inalámbrica tendrá unas características u otras:

  • Ondas de radio: las ondas electromagnéticas son omnidireccionales, así que no son necesarias las antenas parabólicas. La transmisión no es sensible a las atenuaciones producidas por la lluvia ya que se opera en frecuencias no demasiado elevadas. En este rango se encuentran las bandas desde la ELF que va de 3 a 30 Hz, hasta la banda UHF que va de los 300 a los 3000 MHz, es decir, comprende el espectro radioelectrico de 30 - 3000000000 Hz.
  • Microondas terrestres: se utilizan antenas parabólicas con un diámetro aproximado de unos tres metros. Tienen una cobertura de kilómetros, pero con el inconveniente de que el emisor y el receptor deben estar perfectamente alineados. Por eso, se acostumbran a utilizar en enlaces punto a punto en distancias cortas. En este caso, la atenuación producida por la lluvia es más importante ya que se opera a una frecuencia más elevada. Las microondas comprenden las frecuencias desde 1 hasta 300 GHz.
  • Microondas por satélite: se hacen enlaces entre dos o más estaciones terrestres que se denominan estaciones base. El satélite recibe la señal (denominada señal ascendente) en una banda de frecuencia, la amplifica y la retransmite en otra banda (señal descendente). Cada satélite opera en unas bandas concretas. Las fronteras frecuenciales de las microondas, tanto terrestres como por satélite, con los infrarrojos y las ondas de radio de alta frecuencia se mezclan bastante, así que pueden haber interferencias con las comunicaciones en determinadas frecuencias.
  • Infrarrojos: se enlazan transmisores y receptores que modulan la luz infrarroja no coherente. Deben estar alineados directamente o con una reflexión en una superficie. No pueden atravesar las paredes. Los infrarrojos van desde 300 GHz hasta 384 THz.

Aplicaciones

  • Las bandas más importantes con aplicaciones inalámbricas, del rango de frecuencias que abarcan las ondas de radio, son la VLF (comunicaciones en navegación y submarinos), LF (radio AM de onda larga), MF (radio AM de onda media), HF (radio AM de onda corta), VHF (radio FM y TV), UHF (TV).
  • Mediante las microondas terrestres, existen diferentes aplicaciones basadas en protocolos como Bluetooth o ZigBee para interconectar ordenadores portátiles, PDAs, teléfonos u otros aparatos. También se utilizan las microondas para comunicaciones con radares (detección de velocidad u otras características de objetos remotos) y para la televisión digital terrestre.
  • Las microondas por satélite se usan para la difusión de televisión por satélite, transmisión telefónica a larga distancia y en redes privadas, por ejemplo.
  • Los infrarrojos tienen aplicaciones como la comunicación a corta distancia de los ordenadores con sus periféricos. También se utilizan para mandos a distancia, ya que así no interfieren con otras señales electromagnéticas, por ejemplo la señal de televisión. Uno de los estándares más usados en estas comunicaciones es el IrDA (Infrared Data Association). Otros usos que tienen los infrarrojos son técnicas como la termografía, la cual permite determinar la temperatura de objetos a distancia.

 

4. Escoje un determinado producto y promocionalo

 

  LAS ALMOHADAS CON LAS QUE SUEÑA SU BEBE O ADULTO LLAMADAS DULCES SUEÑOS

CONTACTARNOS: EN LOS SIGUIENTES TELEFONOS EN MEDELLIN AL 3112526 O A NIVEL NACIONAL AL 0180004546

EN EL SIGUIENTE CORREO DULCESUEÑOS@HOTMAIL.COM

 

5. Con que medios lo promocionarias explicarlos

por el medio de la television ya que esta la ve mucha gente y por ello se venderia bien

o por el otro medio la internet por su adecuacion el facebook ya que este es una de los medios que el mundo mas se conecta.

 

6. 

Misión:

La misión es el motivo, propósito, fin o razón de ser de la existencia de una empresa u organización porque define: 1) lo que pretende cumplir en su entorno o sistema social en el que actúa, 2) lo que pretende hacer, y 3) el para quién lo va a hacer; y es influenciada en momentos concretos por algunos elementos como: la historia de la organización, las preferencias de la gerencia y/o de los propietarios, los factores externos o del entorno, los recursos disponibles, y sus capacidades distintivas [1].

Complementando ésta definición, citamos un concepto de los autores Thompson y Strickland que dice: "Lo que una compañía trata de hacer en la actualidad por sus clientes a menudo se califica como la misión de la compañía. Una exposición de la misma a menudo es útil para ponderar el negocio en el cual se encuentra la compañía y las necesidades de los clientes a quienes trata de servir" [2].

Visión:

Para Jack Fleitman, en el mundo empresarial, la visión se define como el camino al cual se dirige la empresa a largo plazo y sirve de rumbo y aliciente para orientar las decisiones estratégicas de crecimiento junto a las de competitividad [3].

Según Arthur Thompson y A. J. Strickland, el simple hecho de establecer con claridad lo que está haciendo el día de hoy no dice nada del futuro de la compañía, ni incorpora el sentido de un cambio necesario y de una dirección a largo plazo. Hay un imperativo administrativo todavía mayor, el de considerar qué deberá hacer la compañía para satisfacer las necesidades de sus clientes el día de mañana y cómo deberá evolucionar la configuración de negocios para que pueda crecer y prosperar. Por consiguiente, los administradores están obligados a ver más allá del negocio actual y pensar estratégicamente en el impacto de las nuevas tecnologías, de las necesidades y expectativas cambiantes de los clientes, de la aparición de nuevas condiciones del mercado y competitivas, etc... Deben hacer algunas consideraciones fundamentales acerca de hacia dónde quieren llevar a la compañía y desarrollar una visión de la clase de empresa en la cual creen que se debe convertir [2].

En síntesis, la visión es una exposición clara que indica hacia dónde se dirige la empresa a largo plazo y en qué se deberá convertir, tomando en cuenta el impacto de las nuevas tecnologías, de las necesidades y expectativas cambiantes de los clientes, de la aparición de nuevas condiciones del mercado, etc.

Diferencias Entre Misión y Visión:

Según Jack Fleitman, hay muchas diferencias entre misión y visión [3]. Por ejemplo:

  1. Algunos dicen que la visión es más genérica que la misión y, por lo tanto, que es menos precisa [3].
  2. Otros creen que la visión es algo que yace en la mente de una persona y, por consiguiente, que es menos objetiva que subjetiva [3].
  3. En contraparte, suele pensarse que la misión es mucho más precisa, específica, y que es algo de lo cual ya se tiene alguna certeza.

En todo caso, conocer el sitio adonde se va allana considerablemente el camino, y desde este punto de vista, el concepto de misión es más usual y suele ser definido como el modo en que los empresarios, líderes y ejecutivos deciden hacer realidad su visión [3].

Sin embargo, cabe señalar que existen otros puntos de vista acerca de las diferencias entre la misión y visión, y que se pueden resumir en los siguientes conceptos:

  • Lo que es ahora el negocio (o el motivo, propósito, fin o razón de ser de la existencia de una empresa u organización en la actualidad), es la misión.
  • Lo que será el negocio más adelante (o el hacia dónde se dirige la empresa a largo plazo y en qué se deberá convertir), es la visión.

En otras palabras, la misión pone énfasis en la "actualidad" del negocio, en cambio la visión, en el futuro a largo plazo de éste.

Fusión de Misión y Visión:

Dentro de las múltiples posibilidades que se pueden dar al momento de elaborar una exposición de misión y visión, está la de tener ambas fusionadas, por ejemplo, en una sola declaración de misión.

Acerca de ésta afirmación, los autores Thompson y Strickland mencionan que en caso de que la exposición de la misión de una compañía no solo establezca una diferenciación clara del negocio actual, sino que también indique hacia dónde se dirige la compañía y en qué se convertirá en los años próximos, conlleva a que los conceptos de la misión de la compañía (o exposición de la misión) y la visión estratégica se fusionen; en otras palabras, una visión estratégica y una misión del negocio orientadas hacia el futuro equivalen esencialmente a lo mismo [2].

 

MISION DE DULCESUEÑO

 

ESTA EMPRESA TIENE SU EXISTENCIA EN MEDELLIN DE UN SUEÑO DE UNA DE SUS TANTOS  HABITANTES EL PROPOSITO DE LA MISMA ES LLEGAR A VENDER TANTAS DULCESUEÑOS Y SER CATALOGADA COMO UNA DE LAS MEJORES EMPRESAS DE ALMOHADAS

 

VISION DE DULCESUEÑOS

EL CAMINO DE ESTA EMPRESA ES LLEGAR A VENDER TANTAS COMO SE PUEDA A NIVEL INTERNACIONAL Y A LARGO PLAZO SER LA MAS RECONOCIDAD Y LA MAS VENDIDA.

 

MERCADOTECNIA

1. Que es mercadotecnia

Para la American Marketing Asociation (A.M.A.): "La mercadotecnia es una función de la organización y un conjunto de procesos para crear, comunicar y entregar valor a los clientes, y para manejar las relaciones con estos últimos, de manera que beneficien a toda la organización..." [5].


•Para Philip Kotler, autor del libro "Dirección de Mercadotecnia":"La mercadotecnia es un proceso social y administrativo mediante el cual grupos e individuos obtienen lo que necesitan y desean a través de generar, ofrecer e intercambiar productos de valor con sus semejantes" [1].
•Para Jerome McCarthy, Premio Trailblazer de la American Marketing Asociation: "La mercadotecnia es la realización de aquellas actividades que tienen por objeto cumplir las metas de una organización, al anticiparse a los requerimientos del consumidor o cliente y al encauzar un flujo de mercancías aptas a las necesidades y los servicios que el productor presta al consumidor o cliente"
.
•Para Stanton, Etzel y Walker, autores del libro "Fundamentos del Marketing": "La mercadotecnia es un sistema total de actividades de negocios ideado para planear productos satisfactores de necesidades, asignarles precios, promover y distribuirlos a los mercados meta, a fin de lograr los objetivos de la organización" [2].

esas son algunas definiciones, y aunque Kotler es el padre de la mercadotecnia a mi personalmente me convence más el concepto de stanton

2. Quien la realiza

Hola, mira, los estudios de mercadotecnia brindan al alumno conocimientos y técnicas esenciales para optimizar las operaciones financieras y mercantiles.
vas a cursar materias como: finanzas, administración, economía, relaciones industriales, publicidad, derecho mercantil y algunas técnicas de comunicación.

Este profesional se encarga de comercializar óptimamente cualquier producto o servicio. Para ello utiliza técnicas de investigación de mercado, encuestas para detectar gustos, preferencia y necesidades de los consumidores, etc.

A partir de sus investigaciones, planea el desarrollo de nuevos productos o bien, las innovaciones de los ya existentes. analiza y determina precios, distribución y promoción.

Delimita objetivos a corto y largo plazo, estrategias y programas de acción, analiza los mercados y sus tendencias, etc.

También verifica que logos, empaques y etiquetas tengan un adecuado diseño para el impacto y la memorización duradera del consumidor. diseña e implementa estrategias publicitarias acorde con el presupuesto y los objetivos de la empresa.

Es el responsable ante su empresa de mantener o modificar la calidad, existencia o abastecimiento de los productos o servicios en sus mercados. por otra parte, debe estar pendiente de la competencia y otras posibles amenazas.

En resumen, un mercadólogo, es el responsable del triunfo de un determinado producto o servicio en su respectivo mercado. su ejercicio profesional esta íntimamente relacionado con empresas, industrias, comercios, medios publicitarios y obviamente con el público o empresas consumidoras de los productos bajo su responsabilidad.

3. para que se realiza

se realiza para los consumidores. ya que ellos optimisan cualquier producto o servicio para ello utilizan estudios de mercado, escuestas para dectar el gusto y preferencias de los consumidores.

4. que es publicidad

   

La publicidad es una técnica de comunicación comercial que intenta informar al público sobre un producto o servicio a través de los medios de comunicación con el objetivo de motivar al público hacia una acción de consumo. En términos generales puede agruparse en above the line y below the line según el tipo de soportes que utilice para llegar a su público objetivo.

Aunque no existe una clasificación globalmente aceptada, por ATL (Above The Line) se entiende todo lo que va en medios de comunicación masivos: televisión, radio, cine, revistas, prensa, exterior e Internet, mientras que BTL (Below The Line) agrupa acciones de mercadotecnia directa, relaciones públicas, patrocinio, promociones, punto de venta, product placement, etc.

A través de la investigación, el análisis y estudio de numerosas disciplinas, tales como la psicología, la sociología, la antropología, la estadística, y la economía, que son halladas en el estudio de mercado, se podrá desarrollar un mensaje adecuado para el público.

La publicidad llega al público a través de los medios de comunicación. Dichos medios de comunicación emiten los anuncios a cambio de una contraprestación previamente fijada para adquirir dichos espacios en un contrato de compra y venta por la agencia de publicidad y el medio, emitiendo el anuncio en un horario dentro del canal que es previamente fijado por la agencia con el medio, y con el previo conocimiento del anunciante. Tal contrato es denominado contrato de emisión o de difusión.

Las agencias de publicidad, agencias de medios o centrales de medios (diseño gráfico, boutiques creativas, productoras, etc.) son partícipes muchas veces dentro del desarrollo publicitario, que está elaborada por varios factores; entre los cuales, el más importante es el brief, el cual da las pautas previas para desarrollar dicha pieza publicitaria. Propiamente dicho, el brief es un documento que especifica todas las características propias del producto o servicio en sí, y además suele contener un historial de todas las campañas previas que se han realizado hasta la fecha. Usualmente este historial es agregado cuando el anunciante decide cambiar de agencia de publicidad.

La notoriedad de marca es una manera importante en que la publicidad puede estimular la demanda de un tipo de producto determinado e incluso identificar como denominación propia a dicho producto. Ejemplos de esto los hay en productos como adhesivos textiles, lencería femenina, papel higiénico, cinta adhesiva, pegamento en barra, encendedores de fuego, reproductores de música, refrescos... La notoriedad de marca de fábrica se puede establecer a un mayor o menor grado dependiendo del producto y del mercado. En Texas, por ejemplo, es común oír a gente referirse a cualquier bebida refrescante de cola bajo el mismo nombre, sin importar si es producida realmente por esa empresa o no. Cuando se crea tanto valor de marca que la marca tiene la capacidad de atraer a los compradores incluso sin publicidad, se dice que se tiene notoriedad de marca. La mayor notoriedad de marca se produce cuando la marca de fábrica es tan frecuente en la mente de la gente que se utiliza para describir la categoría entera de productos. Kleenex, por ejemplo, puede identificarse como pañuelos de celulosa o como una etiqueta para una categoría de productos, es decir, se utiliza con frecuencia como término genérico. Una de las firmas más acertadas al alcanzar una notoriedad de marca de fábrica es la aspiradora Hoover, cuyo nombre fue durante mucho tiempo en los países anglosajones sinónimo de aspiradora. Un riesgo legal para el fabricante de la notoriedad de marca es que el nombre puede aceptarse tan extensamente que se convierte en un término genérico, y pierde la protección de la marca registrada. Un ejemplo de este caso sería el nombre comercial del ácido acetilsalicílico.

En ocasiones, determinados productos adquieren relevancia debido a la publicidad, no necesariamente como consecuencia de una campaña intencionada, sino por el hecho de tener una cobertura periodística relevante. En Internet o tecnologías digitales se habla de publicidad no solicitada o spam al hecho de enviar mensajes electrónicos, tales como correos electrónicos, mensajes cortos u otros medios sin haberlo solicitado, y por lo general en cantidades masivas. No obstante, Internet es un medio habitual para el desarrollo de campañas de publicidad interactiva que no caen en invasión a la privacidad, sino al contrario, llevan la publicidad tradicional a los nuevos espacios donde se pueda desarrollar.

Cabe destacar que los términos publicidad y "propaganda muchas veces se usan indistintamente y se intercambian, la mayor parte de las veces indebidamente; a este respecto es importante comprender que la propaganda busca, más precisamente, la propagación (y por consiguiente la persuasión) de ideas políticas, sociales, morales y religiosas sin fines directamente económicamente compensatorios.[1]

  

5. selecciona un producto

 

6. Desarrolla un eslogan y un logo alusivo

cuida el medio ambiente. es lo mas bello que tiene el ser humano para ver y sentir como viven es su entorno

ADMINISTRACION Y GESTION

2. ORGANIZACION, DIRECCION, CONTROL, PRINCIPIOS ADMINISTRATIVOS, MERCADEOTECNIA 

ESTOS SON LOS PRINCIPIOS ADMINISTRATIVOS QUE DEBEMOS ENTENDER SU SIGNIFICADO Y DAR EJM TENIENDO EN CUENTA LA EMPRESA COMO EJM Y FACTOR PRINCIPAL.

QUE ES UNA EMPRESA

DESARROLLAR EL ORGANIGRAMA DE CEMPED 

GRAFICAR, PERSONALIZAR EL BLOG

TIPOS DE EMPRESA Y GRAFICOS

SOLUCION

2.   

Definición de Administración.

Es el procesode lograr que las cosas se realicen por medio de la planeación, organización, delegación de funciones, integración de personal, direccióny controlde otras personas, creando y manteniendo un ambiente en el cual la personase pueda desempeñar entusiastamente en conjunto con otras, sacando a relucir su potencial, eficacia y eficiencia y lograr así fines determinados.

Importancia de la Administración.

 No sería suficiente con decir que sin una buena administración ninguna organización tendrá éxito; por lo cual mencionaremos algunos hechos para mencionar su importancia:

1- La administración no solamente nació con la humanidad sino que se extiende a la vez a todos los ámbitos geográficos y por su carácterUniversal, lo encontramos presente en todas partes. Y es que en el ámbito del esfuerzo humano existe siempre un lado administrativo de todo esfuerzo planeado.

2- Donde exista un organismo social allí estará presente la administración.

3- No sirve de mucho que en una empresaexistan buenas instalaciones, el mejor equipo, la mejor ubicación, si lo todo lo anterior no va acompañado del elemento humano necesario para dirigir las actividades, o sea que la administración es importante para alcanzar objetivos de la organización.

4- En las grandes empresas la administración científicao técnica es esencial ya que no podrían existir sin una buena administración.

5- La administración es un proceso universal ya que no solo se da en los países capitalistas, sino que también en los países socialistas o de cualquier tipo que sean, la administración es importante tanto en las pequeñas como el las grandes empresas.

6- Otro hecho importante es que por medio de la administración se puede elevar la productividady los niveles de vida en los países en vías de desarrollo.

7- La administración imparte efectividad a los esfuerzos humanos. Ayuda a obtener mejor personal, equipo, materiales, dineroy relaciones humanas.

8- Se mantiene al frente de las condiciones cambiantes y proporciona previsión y creatividad.

Para concluir podemos decir que la administración es importante por que se aplica en cualquier tipo de organización con deseos de aumentar su productividad y el éxito, dependiendo para esto del elemento humano y material.

Características de la Administración.

Dentro de las características de la administración tenemos las siguientes:

1- Universalidad:La administración se da donde quiera que existe un organismo social ( estado, ejército, empresas, iglesias, familia, etc.), porque en él tiene siempre que existir coordinación sistemática de medios.

2- Especificidad: La administración tiene sus propias características las cuales son inconfundibles con otras ciencias, aunque va acompañada siempre de ellas (funciones económicas, contables, productivas, mecánicas, jurídicas, etc.), son completamente distintas.

3- Unidad Temporal:Aunque se distingan etapas, fases y elementos del proceso administrativo, éste es único y, por lo mismo, en todo momento de la vida de una empresase están dando, en mayor o menor grado, todos o la mayor parte de los elementos administrativos.

4- Unidad Jerárquica: Todos cuantos tienen carácter de jefes en un organismo social, participan en distintos grados y modalidades, de la misma administración. Así, en una empresa forman un solo cuerpo administrativo, desde el gerentegeneral, hasta el último mayordomo". Respetándose siempre los niveles de autoridad que están establecidos dentro de la organización.

5- Valor Instrumental:La administración es un instrumento para llegar a un fin, ya que su finalidad es eminentemente práctica y mediante ésta se busca obtener resultados determinados previamente establecidos.

6- Flexibilidad: La administración se adapta a las necesidades particulares de cada organización.

7- Amplitud de Ejercicio: Esta se aplica en todos los niveles jerárquicos de una organización.

También podríamos mencionar otras características como:

  • a) Es un medio para ejercer impacto en la vida humana. Es decir, la administración influye en su medio ambiente.

    b) Se logra mediante los esfuerzos. Para participar en la administración se requiere dejar la tendencia a ejecutar todo por uno mismo y hacer que las tareas se cumplan mediante los esfuerzos de otros.

    c) Es una actividad, no una persona o grupode ellas. La administración no es gente, es una actividad; las personas que administran pueden ser designadas como Directores, gerentes de áreas, etc.

    d) La efectividad administrativa requiere el uso de ciertos conocimientos, aptitudes y práctica. La habilidad técnica es importante para cumplir con un trabajo asignado.

    e) La administración es intangible. Su presencia queda evidenciada por el resultado de los esfuerzos.

Los que la practican no son necesariamente los propietarios; es decir que el administradory el propietario no son necesariamente la misma persona.

Definición de Organización.

 Se trata de determinar que recurso y que actividades se requieren para alcanzar los objetivos de la organización. Luego se debe de diseñar la forma de combinarla en grupo operativo, es decir, crear la estructura departamental de la empresa.

De la estructura establecida, se hace necesaria la asignación de responsabilidades y la autoridad formal asignada a cada puesto.

Podemos decir que el resultado a que se llegue con esta función es el establecimiento de una estructura organizativa.

Para que exista un papel organizacional y sea significativo para los individuos, deberá de incorporar:

1- Objetivos verificables que constituyen parte central de la planeación.

2- Una idea clara de los principales deberes o actividades.

3- Una área de discreción o autoridad de modo que quien cumple una función sepa lo que debe hacer para alcanzar los objetivos.

Además, para que un papel dé buenos resultados, habrá que tomar las medidas a fin de suministrar la información necesaria y otras herramientas que se requieren para la realización de esa función.

Importancia de la Organización.

Esencialmente, la organizaciónnació de la necesidad humana de cooperar. Los hombres se han visto obligados a cooperar para obtener sus fines personales, por razón de sus limitaciones físicas, biológicas, psicológicas y sociales.

En la mayor parte de los casos, esta cooperación puede ser más productiva o menos costosa si se dispone de una estructura de organización.

Se dice que con buen personal cualquier organización funciona. Se ha dicho, incluso, que es conveniente mantener cierto grado de imprecisión en la organización, pues de esta manera la gente se ve obligada a colaborar para poder realizar sus tareas.

Con todo, es obvio que aún personas capaces que deseen cooperar entre sí, trabajarán mucho mas efectivamente si todos conocen el papel que deben cumplir y la forma en que sus funciones se relacionan unas con otras.

Este es un principio general, válido tanto en la administración de empresas como en cualquier institución.

Así, una estructura de organización debe estar diseñada de manera que sea perfectamente clara para todos, quien debe realizar determinada tarea y quien es responsable por determinados resultados; en esta forma se eliminan las dificultades que ocasiona la imprecisión en la asignación de responsabilidades y se logra un sistema de comunicación y de toma de decisiones que refleja y promueve los objetivos de la empresa.

En síntesis, el propósito de la Organización es contribuir a que los objetivos sean significativos y favorezcan la eficiencia organizacional.

Características de la Organización.

1- Complejidad: Existen organizacionesaltas y bajas. Las grandes organizaciones tienen un gran número de niveles intermedios que coordinan e integran las labores de las personas a través de la interacción indirecta. Las empresas pequeñas las actividades las realizan interactuando directamente con las personas.

2- Anonimato:Le da importancia al trabajo u operación que se realice, sin tomar en cuenta quién lo ejecuta.

3- Rutina Estandarizada: Son procesosy canales de comunicación que existe en un ambiente despersonalizado o impersonal, las grandes organizaciones tienden a formar sub-colectividades o grupos informales, manteniendo una acción personalizada dentro de ellas.

4- Estructura especializada no oficiales:Configuran una organización informal cuyo poder, en algunos casos, son más eficaz que las estructuras formales.

5- Tendencia a la especialización y a la proliferación de funciones:Pretende distanciar la autoridad formal de las de idionidad profesional o técnicas, las cuales necesitan un modelo extraformal de interdependencia Autoridad-Capacidad para mantener el orden.

6- Tamaño: Va depender del número de participantes y dependencias.

 

INTRODUCCIÓN.

Podemos que la dirección: Es la aplicación de los conocimientos en la toma de decisiones; para la discusión de este papel s debe saber como es el comportamientode la gente, como individuoy como grupo. De manera apropiada para alcanzar los objetivos de una organización.

Según Cluester Bornor; considera la dirección como:

"El considerar los esfuerzos esenciales de aquellos que integran el sistema cooperativo". Se hace notar debido que es l parte esencial y central de la administración, a la cual se debe ordenar los demás elementos.

En fin la dirección es guiar a un grupo de individuos para lograr los objetivos de la empresa.

Teoría X:La mayoría de las personas no le gusta el trabajo y no asume responsabilidades. Y es necesario que estén vigiladas, controladas para lograr los objetivos.

Teoría Y: Las personas que le gusta el trabajoy que se desempeñan buscan responsabilidades y se muestran muy críticos en sus labores.

Teoría Z: Está teoría se basa en la culturade la región en donde se encuentra la empresay en la organización de la misma, es decir, que toma la productividadcomo una cuestión de organización social.

La comunicación es una de las facilidades de las actividades administrativas.

Las preguntas más comunes de la comunicación son:

  1. Aumentar la aceptación de las reglas organizacionales de los subordinados
  2. Obtener mayor declinación a los objetivos organizacionales.

Tomaremos en cuenta los tipos de comunicación que pueden existir en los campos de trabajo:

  1. Informal: Parte simplemente
  2. Formal: Parte simplemente resúmenes
  3. Ascendente: Parte del nivel más bajo hasta el nivel más alto
  4. Descenderte: Va desde el nivel más alto hasta el más bajo
  5. Verbal: Se da a través de personas.
  1.  

  2. DIRECCIÓN

1.1- Concepto:

  • Dirigir implica mandar, influir y motivar a los empleados para que realicen tareas esenciales. La relación y el tiemposon fundamentales para las actividades de la dirección. De hecho, la dirección llega al fondo de las relaciones de los gerentes con cada una de las personas que trabajan con ellos. Los gerentes dirigen tratando de convencer a los demás de que se les unan para lograr el futuro surge de los pasos de la planificación y la organización. Los gerentes al establecer el ambienteadecuado ayudan a sus empleados a hacer sus mejores esfuerzos.
  • Es el planteamiento, organización, dirección y control de las operaciones de la empresa, a fin de lograr los objetivos que esta persigue y así mismo, los pueda alcanzar.
  • Es la aplicación de los conocimientos en la toma de decisiones, incluye la tarea de fincar los objetivos, alcanzarlos, determinación de la mejor manera de llevar a cabo el liderazgo y ocuparse de la manera de planeamiento e integración de todos los sistemas, en un todo unificado.
  • La dirección debe de saber como es el comportamiento de la gente como individuos y cuando están en grupos y entender la forma en como operan los diferentes tipos de estructura.
  • Es una fuerza que mediante la toma de decisionesbasada en los conocimientos y entendimientos, relaciona entre sí, e integra a través de los procesosde unión apropiados a todos los elementos del sistema organizado de una forma calculada para alcanzar los objetivos de una organización.
  • La dirección es aquel elemento de la administraciónen el que se lograr la realización efectiva de todo lo planeado por medio de la autoridad del administrador, ejercida a base de decisiones, ya sea tomadas directamente o delegando dicha autoridad, y se vigila de manera simultánea que se cumplan en la forma adecuada todas las órdenes emitidas.

Este es el punto central y más importante de la administración, pero quizá en el que existe mayor número de discrepancias, aunque éstas sean accidentales. Así, por ejemplo, unos llaman a este elemento actuación, otra ejecución. Terry define la actuación como "hacer que todos los miembros del grupo se propongan lograr el objetivo, de acuerdo con los planes y la organización, hechos por el jefe administrativo"

Por su parte, Koontz y O’Donnell adoptan el término dirección, definiendo ésta como "la función ejecutiva de guiar y vigilar a los subordinados"

Fayol define la dirección indirectamente al señalar: "Una vez constituido el grupo social, se trata de hacerlo funcionar: tal es la misiónde la dirección, la que consiste para cada jefe en obtener los máximos resultados posibles de los elementos que componen su unidad, en interés de la empresa".

1.4.- IMPORTANCIA.

La dirección es la parte esencial y central de la administración, a la cual se deben subordinar y ordenar todos los demás elementos.

En efecto, si se prevé, planea, organiza, integra y controla, es sólo para bien realizar. De nada sirven técnica complicadas en cualquiera de los otros cinco elementos si no se logra una buena ejecución, la cual depende de manera inmediata, y coincide temporalmente, con una buena dirección, en tanto serán todas las demás técnicas útiles e interesantes en cuanto permitan dirigir y realizar mejor.

Y es que todas las etapas de la mecánicaadministrativa se ordenan a preparar las de las dinámicas, y de éstas la central es la dirección; por ello puede afirmarse que es la esencia y el corazón de lo administrativo.

1.5-. ELEMENTOS.

  • El Jefe: Es aquel que tiene la función de dirigir.
  • Los Dirigidos: Son a los que dirige el jefe.
  • La Situación:Es el momento donde se lleva a cabo la dirección.
  • Importancia:Estimula y dirige a las personas al logro de los objetivos, propuestas o trabajos

2.- TEORÍAS.

Según Douglas Magregor

  • Teoría X
  • Teoría Y
  • Teoría Z

2.1-. Supuesto de la Teoría X

  1. A las personas que básicamente les disgustan el trabajo son perezosas y erutarán el trabajo si es posible
  2. Debido a su pereza y disgusto por el trabajo la gente debe ser cohesionada, amenazada y estrechamente dirigida y controlada (administrada) para asegurar un mínimo de desempeño
  3. A la mayoría de la gente le agrada ser administrada con políticas, reglas y estrecho control por alguien en un puesto autoritario.
  4. La mayoría de las personas son pasivas aceptan poco riesgo y en consecuencia prefieren la seguridaden el trabajo a cualquier otro elemento a la vida del trabajo.

2.2-. Teoría Y

Es lo contrario a la teoría X, en ésta las personas les gusta asumir responsabilidades.

  1. Las personas no rehuyen del trabajo, porque les agrada hacerlo, el trabajo es tan natural como cualquier de las necesidades básicas.
  2. Dado el ambiente adecuado, las personas buscaran responsabilidades, serán muy creativas en el trabajo.
  3. Cuando los objetivos organizacionales son consecuente con los objetivos personales, las personas se sentirá motivados a trabajos y a ejerce sustancial auto dirección y control.
  4. La forma como se comprometen las personas a los objetivos organizacionales está en función de la recompensa que recibe para su realización.

2.3-. Teoría Z

Fue ideada por Quchi de origen Japonés demuestra que la producción es más una cuestión de administración de persona que de teoría mucho más de gestión humana sustentada en filosofíay cultura organizacional adecuada, que de enfoques tradicionales basado en la organización.

En Japón se tomas más en cuenta el procesodecisorio a participativo que se hace a través de un consenso donde todo el equipo decide como se va a trabajar, es decir que la productividad es una cuestión de organización social y de responsabilidad comunitaria donde se toma en cuenta como base la cultura empresarial.

3.- La Comunicación.

Es uno de los facilitadotes más importantes administrativas. Sin ella no se puede intercambiar ideas y experiencias. Un gerente transmite ideas e informaciónde su mente hacia otras mentes, lo que piensa de otra persona estimula la comunicación.

El gerente astuto, sabe que la gente está influenciada por muchos factores y postoma en cuanta al interactuar con ella. La comunicación es necesaria en todas as relaciones humanas y esto conlleva a enfrentarse con la influencia e importancia del comportamiento humano. Y puede llegarse el caso de que la comunicación es difícil entre dos personas que no se respeten o agradan una a la otra.

La comunicación capacita al gerente para obtener datos para la toma de decisiones, para ayudarse a identificar problemas y saber que acciones son necesarias. Por lo que la comunicación es un medio, no un fin, hace posible el proceso administrativo, ayuda a que la planeación administrativa sea bien ejecutada, que se ejecute eficazmente y sea seguida con diligencia, y que el control administrativo sea aplicado con efectividad.

La comunicación es muy importante entre el Director y sus subordinados para mejor manejo de la empresa.

3.1-. Tipos de Comunicación.

  1. Sigue la cadena de mando de la organización formal. Para cualquiera de esa comunicación de transmisión, está prescrita y estipulada la designación formal y la sanción oficial. Esto puede incluir órdenes ejecutivas respecto a nuevos sistemas de bonos o planes de acción, información técnica para propósito de la toma de decisiones y políticas sobre procedimientos y las reglas fijadas por los manuales o compañías.

  2. Formal: Es aquella que se da de carácterformal siguiendo reglas que impone un grupo, ejemplo: reuniones, juntas, entrevistas, etc.

    Es comúnmente llamada rumor o telégrafo secreto, lo utilizan los gerentes para comprender la comunicación formal. Este tipo de comunicación informal puede ser útil y precisa o dañina para el manejo de las personas. Se dice que hay un 80% de exactitud en los rumores, para saber las controversias en las organizaciones.

  3. Informal: Es aquella que parte simplemente de reuniones y es de carácter personal, esta distorsiona el mensaje que se quiere dar.
  4. Ascendente: Es aquella que va desde los niveles bajos de la comunicación hasta los niveles altos de una empresa.
  5. Descendiente: Es aquella que va desde los niveles más altos a las más bajas, ejemplo:desde el presidente o gerente de una empresa hasta los obreros.
  6. Verbal:Es aquella que se da a través de palabras, ejemplo: reuniones, juntas
  7. Escrita: Es la que se da a través de cartas, memorando, etc.
  8. Eficiente:Intenta minimizar el tiempo y el costo. Es el esfuerzo total de intercambio de información. El costo puede incurrir dinero, privación de comodidad y la cantidad de energía y esfuerzo gastados en la comunicación. La comunicación se puede considerar eficiente si el mensaje se transmite por un canal menos costoso y por otros canales alternativos.
  9. Efectivo:Comprende la mejor forma de envío y recibo de la información, el pleno entendimiento del mensaje se transmite por un canal emprendida al final del intercambio de información.

3.2-. Proceso de la Comunicación

Lasswell presentó 5 preguntas para ayudar a entender lo esencial del proceso de la comunicación:

¿Quién?: Fuente/Origen del mensaje.

¿Quién dice?: Símbolos verbales y no verbales que constituyen el mensaje.

¿En que canal?: Selección de la transmisión de la información (hablada, escrita, etc.)

¿A quién?:Receptor internacional o no internacional del mensaje.

¿A afecto de que?: ¿Es el mensaje interpretado con exactitud y se actúa en forma adecuada?

Shannon y Weaver intentaron descubrir el proceso general de la comunicación para todas las situaciones. Su modelo incluía los elementos básicos de un comunicador, un codificador, un mensaje, un medio de transmisión, un descodificador, un receptor, retroalimentación y ruido.

4.- Liderazgo.

Es la iluminación de la visión del hombrehacia perspectivas más altas, el surgimiento del rendimiento del hombre a estándares más elevados, la construcción de la personalidad del hombre más allá de sus limitaciones normales.

4.1.-. Acción en el grupo.

El líder que emerge de un grupo es el que es percibido por éste como el más capaz de satisfacer las necesidades del mismo.

4.2-. Cualidades del Liderazgo.

La teoría de la cualidad característica del liderazgo se concreta en el líder. Esta teoría supone que la eficiencia del liderazgo se puede explicar aislado las características o peculiaridades físicas o psicológicas que diferencia al líder del grupo. Algunas de las peculiaridades más frecuentemente de un buen líder son:

  1. Honestidad
  2. Veracidad
  3. Imparcialidad
  4. Valor
  5. Perseverancia.

Todas estas peculiaridades se consideran virtudes dentro de nuestro sistema ético. Ya que la teoría de la cualidad característica implica que el grado hasta el cual un líder posee estas cualidades determina la eficiencia, se esperaría que una persona que ocupa un puesto de liderazgo tuviera estas peculiaridades. ¿Cómo se puede explicar entonces el abrumador poder de un líder como Adolfo Hitler?

Se puede citar numerosos ejemplos de líderes famosos que tuvieron pocas, o ninguna de las peculiaridades mencionadas anteriormente. Alvin Gouldner repasó mucha de la evidencia relacionada con las peculiaridades y concluyó; "A la fecha no hay una evidencia confiable interesada en la existencia de las peculiaridades de liderazgo universal". Un estudio de Gordon Lippitt relacionado con la teoría de la cualidad característica mostró que en 106 estudios de esta teoría sólo 5% de todas las peculiaridades listadas aparecieron en cuatro o más de ellos.

La falta inherente de esta teoría es que se ve liderazgo sólo como un proceso unidimensional. En verdad, los líderes no surgen o funcionan en el vació. El medio ambientecultural, social y físico juega un papel complejo en el desarrollo y existencia de un líder.

4.3.- Estilo de Liderazgo.

Estudios dirigidos por Kart Lewin, Ronald Lippitt, y Ralph K. White de University of Iowa en 1938 enfocaron su atencióna los estilos de liderazgo. Ellos identificaron tres estilos básicos-autocrático, laissez faire y democrático. La ubicación de la función de toma de decisiones surgió de estos estudios como la diferencia principal entre los estilos de liderazgo. En general, el líder autocrático toma todas las decisiones; el líder laissez faire permite a los individuos en el grupo tomar todas las decisiones; y el líder democrático guia y anima al grupo a tomarlas. Leland P. Bradford y Ronald Lippitt describieron a cada uno de estos líderes y sus grupos como sigue:

En resumen, la importancia de los estudios de Lewin y White se encuentra en el hecho que fueron los primeros en estudiar el liderazgo en una forma científica. Sus estudios mostraron que estilos diferentes de liderazgo produjeron reacciones distintas en el grupo. No se trató de relacionar el estilo de liderazgo con la productividad. Su contribución principal fue que identificaron tres estilos diferentes de liderazgo-autocrático-laissez faire y democrático.

Las descripciones de los tres diferentes estilos desarrollados por Bradford y Lippitt fueron mucho más lejos en que trataron de relacionar el estilo de liderazgo con la productividad. Su descripciónde los estilos democráticos es el más conveniente y productivo para la mayoría de la situaciones. Sin embargo, como se mostrará posteriormente en este capítulo, el estilo de liderazgo más productivo depende de la situación en la que opera el líder.

CONCLUSIÓN.

Mediante todo lo expuesto en esta breve investigaciónpodemos decir que en toda actividad ya sea expresoral o artesanal o de cualquier índole social es de gran importancia la dirección ya que es la razón existente para que en la actividad que se desempeña en este momento siga en patrón de organización.

Si nos encontramos ejerciendo un papel de gerente o de supervisor tenemos que conocer los principiosa través básico de la dirección lo que conocemos hasta ahora; ya que encontremos personas adscritas en las teoría X; que tiene la necesidad inconscientemente de ser administrados o controlados para poder lograr sus visitas y personas como los diferentes en la teoría Y, que son personas que les gustan la actividad que en ese momento desempeñan y la expuestas en las teoría Z que son personas que actúan bajo el patrón cultural y social.

 

El control ha sido definido bajo dos grandes perspectivas, una perspectiva limitada y una perspectiva amplia. Desde la perspectiva limitada, el control se concibe como la verificación a posteriori de los resultados conseguidos en el seguimiento de los objetivos planteados y el control de gastos invertido en el proceso realizado por los niveles directivos donde la estandarización en términos cuantitativos, forma parte central de la acción de control.

Bajo la perspectiva amplia, el control es concebido como una actividad no sólo a nivel directivo, sino de todos los niveles y miembros de la entidad, orientando a la organización hacia el cumplimiento de los objetivos propuestos bajo mecanismos de medición cualitativos y cuantitativos. Este enfoque hace énfasis en los factores sociales y culturales presentes en el contexto institucional ya que parte del principio que es el propio comportamiento individual quien define en última instancia la eficacia de los métodos de control elegidos en la dinámica de gestión.

Todo esto lleva a pensar que el control es un mecanismo que permite corregir desviaciones a través de indicadores cualitativos y cuantitativos dentro de un contexto social amplio, a fin de lograr el cumplimiento de los objetivos claves para el éxito organizacional, es decir, el control se entiende no como un proceso netamente técnico de seguimiento, sino también como un proceso informal donde se evalúan factores culturales, organizativos, humanos y grupales.

2. Definición de control

El control es una etapa primordial en la administración, pues, aunque una empresa cuente con magníficos planes, una estructura organizacional adecuada y una dirección eficiente, el ejecutivo no podrá verificar cuál es la situación real de la organización i no existe un mecanismo que se cerciore e informe si los hechos van de acuerdo con los objetivos.

El concepto de control es muy general y puede ser utilizado en el contexto organizacional para evaluar el desempeño general frente a un plan estratégico.

A fin de incentivar que cada uno establezca una definición propia del concepto se revisara algunos planteamientos de varios autores estudiosos del tema:

  • Henry Farol: El control consiste en verificar si todo ocurre de conformidad con el PANM adoptado, con las instrucciones emitidas y con los principios establecidos. Tiene como fin señalar las debilidades y errores a fin de rectificarlos e impedir que se produzcan nuevamente.
  • Robert B. Buchele: El proceso de medir los actuales resultados en relación con los planes, diagnosticando la razón de las desviaciones y tomando las medidas correctivas necesarias.
  • George R. Terry: El proceso para determinar lo que se está llevando a cabo, valorización y, si es necesario, aplicando medidas correctivas, de manera que la ejecución se desarrolle de acuerdo con lo planeado.
  • Buró K. Scanlan: El control tiene como objetivo cerciorarse de que los hechos vayan de acuerdo con los planes establecidos.
  • Robert C. Appleby: La medición y corrección de las realizaciones de los subordinados con el fin de asegurar que tanto los objetivos de la empresa como los planes para alcanzarlos se cumplan económica y eficazmente.
  • Robert Eckles, Ronald Carmichael y Bernard Sarchet: Es la regulación de las actividades, de conformidad con un plan creado para alcanzar ciertos objetivos.
  • Harold Koontz y Ciril O´Donell: Implica la medición de lo logrado en relación con lo estándar y la corrección de las desviaciones, para asegurar la obtención de los objetivos de acuerdo con el plan.
  • Chiavenato: El control es una función administrativa: es la fase del proceso administrativo que mide y evalúa el desempeño y toma la acción correctiva cuando se necesita. De este modo, el control es un proceso esencialmente regulador.

La palabra control tiene muchas connotaciones y su significado depende de la función o del área en que se aplique; puede ser entendida:

  • Como la función administrativa que hace parte del proceso administrativo junto con la planeación, organización y dirección, y lo que la precede.
  • Como los medios de regulación utilizados por un individuo o empresa, como determinadas tareas reguladoras que un controlador aplica en una empresa para acompañar y avalar su desempeño y orientar las decisiones. También hay casos en que la palabra control sirve para diseñar un sistema automático que mantenga un grado constante de flujo o de funcionamiento del sistema total; es el caso del proceso de control de las refinerías de petróleo o de industrias químicas de procesamiento continuo y automático: el mecanismo de control detecta cualquier desvío de los patrones normales, haciendo posible la debida regulación.
  • Como la función restrictiva de un sistema para mantener a los participantes dentro de los patrones deseados y evitar cualquier desvío. Es el caso del control de frecuencia y expediente del personal para evitar posibles abusos. Hay una imagen popular según la cual la palabra control está asociada a un aspecto negativo, principalmente cuando en las organizaciones y en la sociedad es interpretada en el sentido de restricción, coerción, limitación, dirección, refuerzo, manipulación e inhibición.

También hay otras connotaciones para la palabra control:

  • Comprobar o verificar;
  • Regular;
  • Comparar con un patrón;
  • Ejercer autoridad sobre alguien (dirigir o mandar);
  • Frenar o impedir.

Evidentemente todas esas definiciones representan concepciones incompletas del control, quizás definidas en un modo subjetivo y de aplicación; en definitiva, debe entenderse el control como:

Una función administrativa, ya que conforma parte del proceso de administración, que permite verificar, constatar, palpar, medir, si la actividad, proceso, unidad, elemento o sistema seleccionado está cumpliendo y/o alcanzando o no los resultados que se esperan.

3. Elementos de concepto

  • Relación con lo planteado: Siempre existe para verificar el logro de los objetivos que se establecen en la planeación.
  • Medición: Para controlar es imprescindible medir y cuantificar los resultados.
  • Detectar desviaciones: Una de las funciones inherentes al control, es descubrir las diferencias que se presentan entre la ejecución y la planeación.
  • Establecer medidas correctivas: El objeto del control es prever y corregir los errores.

4. Requisitos de un buen control

  • Corrección de fallas y errores: El control debe detectar e indicar errores de planeación, organización o dirección.
  • Previsión de fallas o errores futuros: el control, al detectar e indicar errores actuales, debe prevenir errores futuros, ya sean de planeación, organización o dirección.

5. Importancia del control

Una de las razones más evidentes de la importancia del control es porque hasta el mejor de los planes se puede desviar. El control se emplea para:

  • Crear mejor calidad: Las fallas del proceso se detectan y el proceso se corrige para eliminar errores.
  • Enfrentar el cambio: Este forma parte ineludible del ambiente de cualquier organización. Los mercados cambian, la competencia en todo el mundo ofrece productos o servicios nuevos que captan la atención del público. Surgen materiales y tecnologías nuevas. Se aprueban o enmiendan reglamentos gubernamentales. La función del control sirve a los gerentes para responder a las amenazas o las oportunidades de todo ello, porque les ayuda a detectar los cambios que están afectando los productos y los servicios de sus organizaciones.
  • Producir ciclos más rápidos: Una cosa es reconocer la demanda de los consumidores para un diseño, calidad, o tiempo de entregas mejorados, y otra muy distinta es acelerar los ciclos que implican el desarrollo y la entrega de esos productos y servicios nuevos a los clientes. Los clientes de la actualidad no solo esperan velocidad, sino también productos y servicios a su medida.
  • Agregar valor: Los tiempos veloces de los ciclos son una manera de obtener ventajas competitivas. Otra forma, aplicada por el experto de la administración japonesa Kenichi Ohmae, es agregar valor. Tratar de igualar todos los movimientos de la competencia puede resultar muy costoso y contraproducente. Ohmae, advierte, en cambio, que el principal objetivo de una organización debería ser "agregar valor" a su producto o servicio, de tal manera que los clientes lo comprarán, prefiriéndolo sobre la oferta del consumidor. Con frecuencia, este valor agregado adopta la forma de una calidad por encima de la medida lograda aplicando procedimientos de control.
  • Facilitar la delegación y el trabajo en equipo: La tendencia contemporánea hacia la administración participativa también aumenta la necesidad de delegar autoridad y de fomentar que los empleados trabajen juntos en equipo. Esto no disminuye la responsabilidad última de la gerencia. Por el contrario, cambia la índole del proceso de control. Por tanto, el proceso de control permite que el gerente controle el avance de los empleados, sin entorpecer su creatividad o participación en el trabajo.

6. Bases del control

Se podría comenzar definiendo qué es una base. Bastaría traer a nuestra memoria y fijarnos en la clase de geometría cuando nos explicaban que un triángulo esta conformado por dos elementos principales: base y altura. Para aquel entonces bastaba fijarnos en la parte inferior de la figura y darnos cuenta que sin aquella base ¿sería acaso posible la estabilidad del triángulo? Asimismo funciona con el control organizacional y sus basamentos, podríamos decir que el control se basa en la consecución de las siguientes actividades:

  • Planear y organizar.
  • Hacer.
  • Evaluar.
  • Mejorar.
  • Los objetivos son los programas que desea lograr la empresa, los que facilitarán alcanzar la meta de esta. Lo que hace necesaria la planificación y organización para fijar qué debe hacerse y cómo.
  • El hacer es poner en práctica el cómo se planificó y organizó la consecución de los objetivos. De éste hacer se desprende una información que proporciona detalles sobre lo que se está realizando, o sea, ella va a esclarecer cuáles son los hechos reales. Esta información debe ser clara, práctica y actualizada al evaluar.
  • El evaluar que no es más que la interpretación y comparación de la información obtenida con los objetivos trazados, se puedan tomar decisiones acerca de que medidas deben ser necesarias tomar.
  • La mejora es la puesta en práctica de las medidas que resolverán las desviaciones que hacen perder el equilibrio al sistema.

7. Elementos del control

El control es un proceso cíclico y repetitivo. Está compuesto de cuatro elementos que se suceden:

  • Establecimiento de estándares: Es la primera etapa del control, que establece los estándares o criterios de evaluación o comparación. Un estándar es una norma o un criterio que sirve de base para la evaluación o comparación de alguna cosa. Existen cuatro tipos de estándares; los cuales se presentan a continuación:
    • Estándares de cantidad: Como volumen de producción, cantidad de existencias, cantidad de materiales primas, números de horas, entre otros.
    • Estándares de calidad: Como control de materia prima recibida, control de calidad de producción, especificaciones del producto, entre otros.
    • Estándares de tiempo: Como tiempo estándar para producir un determinado producto, tiempo medio de existencias de un productos determinado, entre otros.
    • Estándares de costos: Como costos de producción, costos de administración, costos de ventas, entre otros.
  • Evaluación del desempeño: Es la segunda etapa del control, que tiene como fin evaluar lo que se está haciendo.
  • Comparación del desempeño con el estándar establecido: Es la tercera etapa del control, que compara el desempeño con lo que fue establecido como estándar, para verificar si hay desvío o variación, esto es, algún error o falla con relación al desempeño esperado.
  • Acción correctiva: Es la cuarta y última etapa del control que busca corregir el desempeño para adecuarlo al estándar esperado. La acción correctiva es siempre una medida de corrección y adecuación de algún desvío o variación con relación al estándar esperado.

8. Áreas del control

El control actúa en todas las áreas y en todos los niveles de la empresa. Prácticamente todas las actividades de una empresa están bajo alguna forma de control o monitoreo.

Las principales áreas de control en la empresa son:

  • Áreas de producción: Si la empresa es industrial, el área de producción es aquella donde se fabrican los productos; si la empresa fuera prestadora de servicios, el área de producción es aquella donde se prestan los servicios; los principales controles existentes en el área de producción son los siguientes:
  • Control de producción: El objetivo fundamental de este control es programar, coordinar e implantar todas las medidas tendientes a lograr un optima rendimiento en las unidades producidas, e indicar el modo, tiempo y lugar más idóneos para lograr las metas de producción, cumpliendo así con todas las necesidades del departamento de ventas. 
    • Control de calidad: Corregir cualquier desvío de los estándares de calidad de los productos o servicios, en cada sección (control de rechazos, inspecciones, entre otros).
    • Control de costos: Verificar continuamente los costos de producción, ya sea de materia prima o de mano de obra.
    • Control de los tiempos de producción: Por operario o por maquinaria; para eliminar desperdicios de tiempo o esperas innecesarias aplicando los estudios de tiempos y movimientos.
    • Control de inventarios: De materias primas, partes y herramientas, productos, tanto subensamblados como terminados, entre otros.
    • Control de operaciones Productivos: Fijación de rutas, programas y abastecimientos, entre otros.
    • Control de desperdicios: Se refiere la fijación de sus mínimos tolerables y deseables.
    • Control de mantenimiento y conservación: Tiempos de máquinas paradas, costos, entre otros.
      • Área comercial: Es el área de la empresa que se encarga de vender o comercializar los productos o servicios producidos.
        • Control de ventas: Acompaña el volumen diario, semanal, mensual y anula de las ventas de la empresa por cliente, vendedor, región, producto o servicio, con el fin de señalar fallas o distorsiones en relación con las previsiones.

Pueden mencionarse como principales controles de ventas:

    • Por volumen total de las mismas ventas.
    • Por tipos de artículos vendidos.
    • Por volumen de ventas estacionales.
    • Por el precio de artículos vendidos.
    • Por clientes.
    • Por territorios.
    • Por vendedores.
    • Por utilidades producidas.
    • Por costos de los diversos tipos de ventas.
      • Control de propaganda: Para acompañar la propaganda contratada por la empresa y verificar su resultado en las ventas.
      • Control de costos: Para verificar continuamente los costos de ventas, así como las comisiones de los vendedores, los costos de propaganda, entre otros.
        • Área financiera: Es el área de la empresa que se encarga de los recursos financieros, como el capital, la facturación, los pagos, el flujo de caja, entre otros. Los principales controles en el área financiera se presentan a continuación:
          • Control presupuestario: Es el control de las previsiones de los gastos financieros, por departamento, para verificar cualquier desvíos en los gastos.
          • Control de costos: Control global de los costos incurridos por la empresa, ya sean costos de producción, de ventas, administrativos (gastos administrativos entre los cuales están; salarios de la dirección y gerencia, alquiler de edificios, entre otros), financieros como los intereses y amortizaciones, préstamos o financiamientos externos entre otros.
            • Área de recursos humanos: Es el área que administra al personal, los principales controles que se aplican son los que siguen:
  • Controles de asistencia y retrasos: Es el control del reloj chequeador o del expediente que verifica los retrasos del personal, las faltas justificadas por motivos médicos, y las no justificadas.
  • Control de vacaciones: Es el control que señala cuando un funcionario debe entrar en vacaciones y por cuántos días.
  • Control de salarios: Verifica los salarios, sus reajustes o correcciones, despidos colectivos, entre otros.

9. Pasos del proceso de control

El control administrativo: Es un esfuerzo sistemático para establecer normas de desempeño con objetivos de planificación, para diseñar sistemas de reinformación, para comparar los resultados reales con las normas previamente establecidas, para determinar si existen desviaciones y para medir su importancia, así como para tomar aquellas medidas que se necesiten para garantizar que todos los recursos de la empresa se usen de la manera más eficaz y eficiente posible para alcanzar los objetivos de la empresa".

En ella se divide el control en cuatro pasos los cuales son:

  • Establecer normas y métodos para medir el rendimiento: Representa un plano ideal, las metas y los objetivos que se han establecido en el proceso de planificación están definidos en términos claros y mensurables, que incluyen fechas límites específicas.

Esto es importante por los siguientes motivos:
En primer lugar; las metas definidas en forma vaga, por ejemplo, "mejorar las habilidades de los empleados", estas son palabras huecas, mientras los gerentes no comiencen a especificar que quieren decir con mejorar, que pretenden hacer para alcanzar esas metas, y cuando.

Segundo; las metas enunciadas con exactitud, como por ejemplo "mejorar las habilidades de los empleados realizando seminarios semanales en nuestras instalaciones, durante los meses de febrero y marzo; se pueden medir mejor, en cuanto a exactitud y utilidad, que las palabras huecas.

Y por último; los objetivos mensurables, enunciados con exactitud, se pueden comunicar con facilidad y traducir a normas y métodos que se pueden usar para medir los resultados. Esta facilidad para comunicar metas y objetivos enunciados con exactitud resulta de suma importancia para el control, pues algunas personas suelen llenar los roles de la planificación, mientras que a otras se les asignan los roles de control.

En las industrias de servicios, las normas y medidas podrían incluir el tiempo que los clientes tienen que estar en las filas de un banco, el tiempo que tienen que esperar antes de que les contesten el teléfono o la cantidad de clientes nuevos que ha atraído una campaña de publicidad renovada. En una empresa industrial, las normas y medidas podrían incluir las metas de ventas y producción, las metas de asistencia al trabajo, los productos de desecho producidos y reciclados y los registros de seguridad

  • Medir los resultados: En muchos sentidos éste es el paso más fácil del proceso de control; las dificultades, presuntamente se han superado con los dos primeros pasos. Ahora, es cuestión de comparar los resultados medidos con las metas o criterios previamente establecidos. Si los resultados corresponden a las normas, los gerentes pueden suponer "que todo está bajo control"

En la figura se observa, que no tienen que intervenir en forma activa en las operaciones de la organización.

  • Tomar medidas correctivos: Este paso es necesario si los resultados no cumplen con los niveles establecidos (estándares) y si el análisis indica que se deben tomar medidas. Las medidas correctivas pueden involucrar un cambio en una o varias actividades de las operaciones de la organización. Por ejemplo; el dueño director de una franquicia podría ver que necesita más empleados en el mostrador para alcanzar la norma de espera de cinco minutos por clientes establecidos por McDonald’s. Por su parte, los controles pueden revelar normas inadecuadas. Dependiendo de las circunstancias, las medidas correctivas podrían involucrar un cambio en las normas originales, en lugar de un cambio en la actividad.

La figura ilustra otro punto importante, a saber, que el control es un proceso dinámico. Si los gerentes no vigilan el proceso de control hasta su conclusión, únicamente estarán vigilando la actuación, en lugar de estar ejerciendo el control. La importancia siempre debe radicar en encontrar maneras constructivas que permitan que los resultados cumplan con los parámetros y no tan sólo en identificar fracasos pasados.

  • Retroalimentación: Es básica en el proceso de control, ya que a través de la retroalimentación, la información obtenida se ajusta al sistema administrativo al correr del tiempo. 

Siempre será necesario dar a conocer los resultados de la medición a ciertos miembros de la organización para solucionar las causas de las desviaciones. Se les pueden proporcionar los resultados tanto a los individuos cuyas actuaciones son medidas, como a sus jefes, o a otros gerentes de nivel superior y los miembros del staff. Cada decisión tendrá sus ventajas e inconvenientes y dependerá del tipo de problema que se desee afrontar. En todo caso, la información debe darse de la forma más objetiva posible. Pierde eficacia cuando se incluyen en ellas sentimientos, suposiciones personales, críticas, interpretaciones, juicios, etc. Parece que cuando muchas personas intervienen en la comunicación de los resultados, incluidos el personal de staff o los supervisores y es difícil ser neutrales, aumenta el riesgo de que surjan el conflicto y actitudes defensivas en los empleados que están siendo controlados.

De la calidad de la información dependerá el grado con el que se retroalimente el sistema.

10. Principios de control

  • Equilibrio: A cada grupo de delegación conferido debe proporcionarle el grado de control correspondiente. De la misma manera la autoridad se delega y la responsabilidad se comparte, al delegar autoridad es necesario establecer los mecanismos suficientes para verificar que se están cumpliendo con la responsabilidad conferida, y que la autoridad delegada está siendo debidamente ejercida.

Ningún control será válido si no se fundamenta en los objetivos, por tanto es imprescindible establecer medidas especificas de actuación, o estándares, que sirvan de patrón para la evaluación de lo establecido mismas que se determinan con base en los objetivos. Los estándares permiten la ejecución de los planes dentro de ciertos límites, evitando errores y, consecuentemente, perdidas de tiempo y de dinero.

  • De la oportunidad: El control, necesita ser oportuno, es decir, debe aplicarse antes de que se efectúe el error, de tal manera que sea posible tomar medidas correctivas, con anticipación.
  • De los objetivos: Se refiere a que el control existe en función de los objetivos, es decir, el control no es un fin, sino un medio para alcanzar los objetivos preestablecidos. Ningún control será valido si no se fundamenta en los objetivos y si, a través de él, no se revisa el logro de los mismos. 
  • De las desviaciones: Todas las variaciones o desviaciones que se presenten en relación con los planes deben ser analizadas detalladamente, de manera que sea posible conocer las causas que lo originaron, a fin de tomar medidas necesarias para evitarlas en futuro. Es inútil detectar desviaciones si no se hace el análisis de las mismas y si no se establecen medidas preventivas y correctivas.
  • De la costeabilidad: El establecimiento de un sistema de control debe justificar el costo que este represente en tiempo y dinero, en relación con las ventajas reales que este reporte. Un control sólo deberá implantarse si su costo se justifica en los resultados que se esperen de el; de nada servirá establecer un sistema de control si los beneficios financieros que reditúa resultan menores que el costo y el tiempo que implican su implantación.
  • De excepción: El control debe aplicarse, preferentemente, a las actividades excepcionales o representativas, a fin de reducir costos y tiempo, delimitando adecuadamente que funciones estratégicas requieren el control. Este principio se auxilia de métodos probabilísticos, estadísticos o aleatorios.
  • De la función controladora: La función controladora por ningún motivo debe comprender a la función controladora, ya que pierde efectividad de control. Este principio es básico, ya que señala que la persona o la función que realiza el control no debe estar involucrada con la actividad a controlar.

11. Reglas del proceso de control

Hay que distinguir, ante todo, los pasos o etapas de todo control:

  1. Establecimiento de los medios de control.
  2. Operaciones de recolección de datos.
  3. Interpretación y valoración de los resultados.
  4. Utilización de los mismos resultados.

La primera, y la última de estas etapas son esencialmente propias del administrador.
La segunda, ciertamente es del técnico en el control de que se trate. La tercera, suele ser del administrador, con la ayuda del técnico.
Entre la innumerable variedad de medios de control posibles en cada grupo, hay que escoger los que puedan considerarse como estratégicos.

  1. ¿Qué mostrará mejor lo que se ha perdido o no se ha obtenido?
  2. ¿Qué puede indicarnos lo que podría mejorarse?
  3. ¿Cómo medir más rápidamente cualquier desviación anormal?
  4. Qué informará mejor "quien" es responsable de las fallas?
  5. ¿Qué controles son los más baratos y amplios a la vez?
  6. ¿Cuáles son los más fáciles y automáticos?

Los sistemas de control deben reflejar, en todo lo posible, la estructura de la organización:

  1. La organización es la expresión de los planes, y a la vez un medio de control. Por so, cuando el control "rompe" los canales de la organización sistemáticamente, distorsiona y trastorna ésta. Vgr: los reportes que se obliga a los obreros, entre otros, que entreguen a contabilidad u otro departamento de control "directamente", tienden a distorsionar la organización.
  2. Además, los mismos controles pierden eficacia. Vgr: muchas veces el dato escueto no sirve, pues necesita de la interpretación o adiciones que debe hacerles el jefe de cada departamento, que es quien tiene la visión general del mismo.

Al establecer los controles, hay que tener en cuenta su naturaleza y la de la función controladora, para aplicar el que sea más útil.

  1. Para determinar la naturaleza de los controles, servirá la siguiente clasificación de los medios de control:
  2. Puramente personales, vgr: supervisión, revisión de operaciones, entre otros.

  3. Para lo que se refiere a la "naturaleza de la función controladora", ubique lo que se refiere a "los medios de control".

Los controles deben ser flexibles. Cuando un control no es flexible, un problema que exija rebasar lo calculado en la previsión, hace que, o bien no pueda adecuadamente la función, o bien se tienda a abandonar el control como inservible. Muchos están en contra del empleo de controles, precisamente por su inflexibilidad.

Por ello es tan útil el empleo de los presupuestos flexibles. En ellos se registran en forma gráfica sobre el eje de las ordenadas, los gastos fijos, como rectas horizontales, y las variables proporcionales, como líneas oblicuas. En el eje de las abscisas se señala el número de unidades producidas, vendidas, etc. Con ello se puede calcular el costo de producción, venta, etc., que corresponde a cada número de unidades. Así, en el ejemplo usado, el costo de producir 1.000 unidades será de $15.000; el de 3.000 será de $22.000, etcétera.

Los controles deben reportar rápidamente las desviaciones. El control de tipo "histórico", mira hacia el pasado. De ahí que, muchas veces, cuando reporta una desviación o corrección, ésta es ya imposible de realizarse. Los controles, por el contrario, deben actualizarse lo más que se pueda.

Deben tener preferencia, por ello, los tipos de control que tienen "preestablecida" su norma o estándar, aunque éste sea aproximado, vgr.:presupuestos, pronósticos, estimaciones, etcétera.

Los controles debe ser claros para todos cuantos d algunas manera han de usarlos. De ahí la necesidad de limitar "tecnicismos". Su empleo exagerado suele ser la tendencia natural que se da en los "especialistas", como un medio de "hacer valer su puesto". Pero la verdadera manera de lograrlo, es obteniendo el máximo efecto del control, y éste no se dará, si todos los que han de emplearlo, no lo entienden perfectamente.
Por la misma razón, debe cuidarse de estar instruyendo permanentemente sobre la necesidad de los controles y sobre su táctica y terminología, a quienes han de intervenir en su operación.
Los controles deben llagar lo más concentrados que sea posible a los altos niveles administrativos, que los han de utilizar.
Por esta razón debe encarecerse siempre la utilización de gráficas para el control, ya sean simples líneas, gráficas de Gantt, de punto de equilibrio, etc. Nótese además el beneficio de poder aplicar las técnicas de la estadística.
Los controles deben conducir por sí mismos de alguna manera a la acción correctiva. No sólo deben decir "que algo está mal", sino "donde, por qué, quien es el responsable, etcétera".
En la utilización de los datos deben seguirse un sistema.
Sus pasos principales serán:

  1. Análisis de los "hechos".
  2. Interpretación de los mismos.
  3. Adopción de medidas aconsejables.
  4. Su iniciación, y revisión estrecha.
  5. Registro de los resultados obtenidos.

Es indispensable no confundir "los hechos", con su interpretación valorativa.

El control puede servir para lo siguiente:

  1. Seguridad en la acción seguida (como el director de una nave que, aunque no tenga que variar el rumbo, usa instrumentos para asegurarse de que el rumbo es el debido).
  2. Corrección de los defectos.
  3. Mejoramiento de lo obtenido.
  4. Nueva planeación general.
  5. Motivación personal.

12. Tolerancias del control

El rendimiento real rara vez concuerda exactamente con los estándares o planes.
Una cierta cantidad de variación ocurrirá normalmente como resultado de la casualidad. Por lo tanto, el administrador debe establecer los límites relacionados con el grado aceptado de desviación del estándar. En otras palabras ¿cuánta variación del estándar se tolera?. La forma en que el administrador establece las tolerancias del control depende de la meta.
Frecuentemente el administrador debe hacer juicios subjetivos cuando el sistema o factor que se supervisa está fuera de control, si la actividad que se supervisa se presta a una medida numérica se pueden usar técnicas de control estadístico.
En cualquier caso, un elemento que influye en la cantidad de desviación aceptable es el riesgo de estar fuera de control y darse cuenta. En general mientras menor sea el riesgo más amplias serán las tolerancias.
Tolerancias de Control

13. Tipos de control según su peridiosidad

Existen tres tipos básicos de control, en función de los recursos, de la actividad y de los resultados dentro de la organización, estos son: el control preliminar, concurrente y de retroalimentación. El primero se enfoca en la prevención de las desviaciones en la calidad y en la cantidad de recursos utilizados en la organización. El segundo, vigila las operaciones en funcionamiento para asegurarse que los objetivos se están alcanzando, los estándares que guían a la actividad en funcionamiento se derivan de las descripciones del trabajo y de las políticas que surgen de la función de la planificación, y último tipo de control se centra en los resultados finales, las medidas correctivas se orientan hacia la mejora del proceso para la adquisición de recursos o hacia las operaciones entre sí.

  • Control preliminar: Los procedimientos del control preliminar incluyen todos los esfuerzos de la gerencia para aumentar la probabilidad de que los resultados actuales concuerden favorablemente con los resultados planificados. Desde esta perspectiva, las políticas son medios importantes para poner en marcha el control preliminar debido a que son directrices para la acción futura. Por lo tanto es importante distinguir entre el establecimiento de las políticas y su realización. El establecimiento de las políticas forma parte de la función de la planificación, mientras que se realización corresponde a la función de control.
    • Selección de recursos humanos y formación de equipos de trabajo: La función de organizar define los requerimientos del trabajo y predetermina los requerimientos de las habilidades de los empleados. Estos requerimientos varían en su grado de especificidad, dependiendo de la naturaleza de la tarea. En el nivel del taller, los requerimientos de las habilidades pueden especificarse tomando en cuenta los atributos físicos y la destreza manual; por otro lado, los requerimientos para las tareas del personal de gerencia que la capacidad de la gerencia es un determinante fundamental del éxito de la organización.
    • Materiales: La materia prima que se transforma en un producto determinado debe ajustarse a los estándares de calidad. Al mismo tiempo, debe mantenerse un inventario suficiente para asegurar el flujo continuo que satisfaga las demandas de los clientes. En años recientes se han diseñado muchos métodos que utilizan el muestreo estadístico para controlar la cantidad de los materiales, el cual consiste en la inspección de las muestras más que de todo el lote. Estos métodos son menos costosos en cuanto al tiempo de inspección, pero existe el riesgo de aceptar materiales defectuosos si la muestra no tiene ningún defecto.

El control preliminar de los materiales ilustra un sistema de control que es muy rutinario.
El estándar puede medirse fácilmente y la información (la muestra) está disponible de inmediato. La duda de aceptar o rechazar materiales surge con bastante frecuencia y deben tomarse las decisiones con un fundamento justo y uniforme. La decisión para aceptar, rechazar o tomar otra muestra se basa en instrucciones directas; al tener los resultados de la muestra, la decisión es automática.

  • Capital: La adquisición de capital refleja la necesidad de reemplazar el equipo existente o de aumentar la capacidad de la empresa. Las adquisiciones de capital son controladas por el establecimiento de criterios de rentabilidad potencial que deben determinarse antes de que la propuesta sea autorizada. Estas adquisiciones generalmente se incluyen en el presupuesto de capital, un documento de planificación a mediano y largo plazo que detalla las fuentes y usos alternativos de los fondos. Las decisiones de la gerencia que implican el compromiso de los fondos presentes a cambio de los fondos futuros se denominan decisiones de inversión. Los métodos que sirven para cribar las propuestas de inversión se basan en análisis económico. Existen varios métodos ampliamente utilizados, cada uno de los cuales implica la formulación de un estándar al que deben ajustarse para aceptar la adquisición prospectiva del capital:
  • El método del periodo de recuperación: Es el método más simple, se calcula el número de años que se necesitan para recuperar el capital propuesto para pagar el costo original con los futuros ingresos en efectivo.
  • La tasa de rentabilidad sobre la inversión: Es una medida alternativa de rentabilidad. Es la razón de los ingresos netos adicionales sobre el costo original.

La tasa de rentabilidad calculada debe compararse con algunos estándares de mínima tolerancia, y la decisión de aceptarla o rechazarla depende de esta comparación.

  • El método de la tasa descontada de rentabilidad: Tomar en cuenta el valor temporal del dinero y, de una manera similar al método del periodo de recuperación, considera sólo el flujo de efectivo. Se usa ampliamente debido a que se conceptúa como el método correcto para calcular la tasa de rentabilidad.
  • Recursos financieros: Los recursos financieros adecuados deben estar disponibles para asegurar el pago de las obligaciones que surgen de las operaciones actuales. Deben compararse los materiales y pagarse los sueldos, los intereses y los vencimientos; el medio principal para controlar la disponibilidad y el costo de los recursos financieros es el presupuesto, particularmente el de efectivo y de capital de trabajo. Estos presupuestos predicen el flujo y reflujo de las actividades de la empresa cuando se compran materiales, se producen y se pasan al inventario de los productos terminados, las existencias se venden y se recibe efectivo.
    • Control concurrente: Consiste en las actividades de los supervisores que dirigen el trabajo de sus subordinados; la dirección se refiere a las actividades del gerente cuando instruye a sus subordinados sobre los medios y procedimientos adecuados y cuando supervisa el trabajo de los subordinados para asegurarse de que se realiza adecuadamente.

La dirección sigue la cadena de mando formal, pues la responsabilidad de cada superior es interpretar para sus subordinados las órdenes recibidas de niveles más altos. La relativa importancia de dirección depende casi por entero de la naturaleza de las actividades llevadas a cabo por los subordinados.

  • Control de retroalimentación: La característica definitiva de los métodos de control retroalimentativos consiste en que éstos destacan los resultados históricos como base para corregir las acciones futuras; por ejemplo, los estados financieros de una empresa se utilizan para evaluar la aceptabilidad de los resultados históricos y determinar cuales son los cambios que deberían hacerse en la adquisición de recursos futuros o actividades operativas.

14. Técnicas para el control

Entre las diferentes técnicas de control se pueden mencionar las siguientes:

  • Contabilidad
  • Auditoria
  • Presupuestos
  • Reportes, informes
  • Formas
  • Archivos (memorias de expedientes)
  • Computarizados
  • Mecanizados 
  • Gráficas y diagramas 
  • Proceso, procedimientos, Gannt, etc.
  • Procedimiento hombre maquina, mano izquierda, mano derecha etc. 
  • Estudio de métodos, tiempos y movimientos, etc. 
  • Métodos cuantitativos 
  • Redes
  • Modelos matemáticos
  • Investigación de operaciones
  • Estadística
  • Cálculos probabilísticas

A continuación describiremos algunas de ellas:
Reportes e informes
Se clasifican en:
Informes de control que se utilizan para el control directo de las operaciones.
Reportes de información que presentan datos más extensos a fin de que la gerencia pueda formular planes. 
Para diseñar un informe se considera: 
Unidad del tema

  • Concentración sobre las acepciones
  • Claridad y concisión
  • Complementarse con presentaciones gráficas, audiovisuales y verbales
  • Equilibrio entre la uniformada y la variedad
  • Frecuencia de los reportes
  • Evaluación de la información 

Administración por objetivos: Ha de resaltar que no constituye una técnica o sistema totalmente novedoso, sin embargo ha enfocado realidades muy antiguas y trascendentales.

La administración por objetivos coordina diversos aspectos ya conocidos, como por ejemplo el control presupuestal.

  • Principios generales de la administración por objetivos: La administración por objetivos constituye una especial actitud, criterio o filosofía de la administración, que consiste en que los jefes superiores discuten en común con los jefes que dependen inmediatamente de ellos, la cuantificación de los objetivos y estándares que deben establecerse.

Una de las características fundamentales de la administración por objetivos, consiste en forzar a la mente para que procure convertir en mensurables y cuantitativos muchos objetivos que hasta hoy se dejaban establecidos en forma vaga, o eran puramente cualitativos.

La administración por objetivos se aplica a lo jefes o administradores de todos los niveles. Consiste realmente en un medio para medir su verdadera aportación.

  • Descripción general del sistema:
  1. El requisito básico s que exista un pleno apoyo de la dirección o gerencia general.
  2. Ordinariamente deben operar por años.
  3. Se requiere como primer paso identificar las metas generales de la empresa en los términos más exactos que sea posible. Es necesario convertir los objetivos en estándares.
  4. Lo anterior implica hacer revisiones y ajustes en los planes generales, y sobre todo en la organización de la empresa.
  5. Debe pedirse a cada jefe interior, que fije sus propios estándares u objetivos.
  6. El jefe superior deberá ensayar la fijación de los estándares o metas, debidamente cuantificados, en cada uno de los campos que lo están haciendo también sus subordinados.
  7. Debe discutirse en cada uno de éstos lo que por ello ha sido señalado. Cuando ambos jefes, superior o inferior coinciden en los estándares, no habrá problemas. De lo contrario de deberá estudiar el caso y tratar de ponerse de acuerdo y fijar cada uno mejor sus metas o reorganizar las existentes.
  8. Las decisiones adoptadas en estas juntas entre el jefe superior y sus jefes subordinados inmediatos, pueden crear la necesidad de modificar o ajustar los objetivos generales, lo que en realidad constituye una línea de retroalimentación.
  9. Durante el desarrollo de los programas en el año, debe revisarse cada determinado tiempo lo que se ha podido obtener en los estándares prefijados y lo que se ha logrado. Deben pedirse y analizarse las razones por las que no se pudo obtener lo señalado.
  10. Con los resultado de la revisión parcial antes mencionada, podrá ocurrir que algunas metas esperadas deban reducirse, o hasta desecharse, o bien, que se puedan aumentar otras o ampliarlas.
  11. Finalmente la revisión permitirá preparar los nuevos estándares para el siguiente período.
  • Gráfica de Gantt: Uno de los elementos más importantes de controlar es el desarrollo de la realización de actividades tanto al tiempo que cada una de ellas implica, como en la relación que deben aguantar entre sí en cada momento, cuando todas ellas concurren al mismo fin.

Henry I. Gantt, inventó para este efecto las cartas o gráficas que toman su nombre y que consisten en representar cada actividad por una barra horizontal la que, por su cruce con niveles o líneas verticales, indica en meses, semanas, días, entre otros, el momento de su iniciación y terminación, y su simultaneidad con las otras actividades relacionadas con ella. Suelen indicarse también a veces la persona, sección, entre otros, encargada de cada una de dichas actividades.

  • Las técnicas de trayectoria crítica: Entre los mayores y más modernos avances en materia de técnicas de control planeación se encuentran, las llamadas Técnicas de Trayectoria Crítica. Aunque son métodos diversos, tienen elementos comunes que permiten agruparlos bajo una denominación común: Se ha puesto el término METRA (Método de Evaluación y Trayectorias en Redes de Actividades).

Estas técnicas constituyen un método para controlar programas, costos, tiempos, secuencias, relación de actividades, entre otros.

  • Técnica PERT: Recibe su nombre de las siglas Program Evaluation and Revió Technique, que traducido al español significa Técnica de Evaluación y Revisión de Programas. Consiste en un instrumento con bases en una red de actividades y eventos, y mediante la estimación de tres tiempos, se evalúa la probabilidad de terminar un proyecto para una fecha determinada.

Aunque inicialmente esta técnica fue creada para controlar y evaluar la duración de proyectos, por lo que se conoció como PERT/tiempo, posteriormente se ha introducido en ella los costos de las actividades, para efectos de control presupuestal, y aun para estudiar el tiempo mínimo compatible con el menor costo posible, dando lugar al sistema PERT/costo.

  • La técnica CPM: Simultáneamente con el estudio del método PERT, aunque de forma independiente, las compañías Dupont de Niemours, y Remington Rand, buscaban un procedimiento que les permitiera resolver problemas típicos de programación. Llegaron al resultado de redes de actividades, como en el caso del PERT, por lo que la primera fase del CPM(Critical Path Method: Método de la Ruta Crítica) es prácticamente igual al PERT, del cual difiere porque trabaja solamente con un tiempo probable de ejecución, basado en experiencias previamente registradas, pero a la vez introduce costos estimados de las actividades implicadas en el proyecto, buscando acortar el proyecto al condensar ciertos tiempos, para lograr un mínimo costo. Se podría definir como la técnica que estima un tiempo probable y determina el costo de cada actividad de una red, con el fin de fijar el tiempo más conveniente de comportamiento en la duración de un proyecto, para lograr el mínimo costo posible.
  • La técnica RAMPS: Es el más reciente entre los métodos de Ruta Crítica. Su nombre se forma también de las siglas Resource Allocation and Multi Project Schedulling: Programa de Proyectos Múltiples y Asignación de Recursos. Tiene por objeto programar la forma en que ciertos recursos limitados, deben ser distribuidos entre varios proyectos simultáneos, total o parcialmente, para obtener una máxima eficiencia. Además de las ideas e instrumentos comunes a PERT y PCM, introduce conceptos de competencia entre varias actividades, que utilizan los mismos recursos a la vez, y que permiten programar dichos recursos en conjunción al programa de actividades. Es posible comparar los costos de diversas alternativas en proyectos, identificar los recursos más efectivos, y es factible, a través del uso de una computadora electrónica, hacer evaluaciones del progreso y perspectiva de trabajo en un momento determinado según opinión de la oficina en México de la firma inventora.

Auditorias
El término auditoria va ligado a la detección de fraudes. Las auditorias tienen muchas aplicaciones importantes, desde validar la honradez y justicia de los estados financieros, hasta proporcionar una base crítica para decisiones gerenciales. Existen dos tipos de auditorias: las externas y las internas.

  • Auditorias externas: Es un proceso de verificación que implica la evaluación independiente de las cuentas y los estados financieros de la organización. Se revisan los activos y los pasivos, así como también los informes financieros con el objetivo de verificar si están completos y exactos. La auditoria es realizada por personal contable empleado por un despacho externo de contadores o por contadores contratados al efecto. Su labor consiste en verificar si la empresa, al preparar sus estados financieros y evaluar sus activos y pasivos, se ha ajustado a los principios contables generalmente aceptados y si los ha aplicado debidamente. La auditoria externa se efectúa cuando el período de operaciones de la organización ha concluido y los estados financieros están terminados.
  • Auditorias internas: Son realizadas por miembros d la organización. Su propósito es ofrecer garantía razonable de que los activos de la organización están debidamente protegidos y de que los registros financieros son llevados con la precisión y la confiabilidad suficiente para preparar los estados financieros. Además sirve a los directivos para evaluar la eficiencia de las operaciones de la organización y el desempeño de los sistemas de control. El alcance de las auditorias también puede variar, dependiendo del tamaño y las políticas de la empresa.

15. Fallas en el proceso de control

Normalmente la no consecución de los objetivos fijados con anterioridad que han sido medidos y evaluados por un sistema de control deben expresarse con una explicación que se fundamenta en la búsqueda de respuestas. El papel del analista debe ser objetivo y centrarse en las técnicas utilizadas y los criterios que le fundamentan, para no caer en errores típicos de la supervisión como son los siguientes:

  • Cacería de brujas: el sistema se encamina a la búsqueda de síntomas y culpables en vez de causas y posibles soluciones. Es cierto que como decía WEINER "los sucesos imprevistos e inesperados provocan un mayor intento de explicación que el resto", pero esto provoca que se trate de personificar el error en aras de encubrir otros que le dieron origen.
  • Esparcimiento de la responsabilidad: el Proceso de control puede no ser demasiado específico e involucrar al total del Personal el cual al sentirse atacado, lejos de apoyar el restablecimiento del equilibrio, reacciona negativamente.
  • Obsesión: el Proceso de control se vuelve obsesivo, hay demasiadas inspecciones por lo que se vuelve costoso, creando, además, un clima de baja confianza ya que limita la libertad individual para actuar y auto controlarse.
  • Nostalgia: el sistema pone demasiado énfasis en lo que pasó, se vuelve recursivo, lo que limita una efectiva toma de medidas correctivas.

16. El control de gestión

Definir el concepto de control de gestión implica considerar el desarrollo del mismo en su ámbito administrativo, distintos autores ha definido el concepto de acuerdo a sus propias posiciones e interpretaciones. Sin embargo la mayoría coincide en que es un sistema dinámico e importante para el logro de metas organizacionales, dichas metas provienen inicialmente del proceso de planeación como requisito básico para el diseño y aplicación del mismo, dentro de ciertas condiciones culturales y organizacionales.

Dentro de la descripcióny valoración del control de gestión se especifican dos concepciones comunes aceptadas en el ámbito administrativo, por un lado se tiene al control como necesidad inherente al proceso de dirección (enfoque racional) y por el otro, en un paradigma mas integral vinculado no sólo a la dirección formal, sino a factores claves como la cultura, el entorno, la estrategia, lo psicológico, lo social y la calidad, representados por los llamados enfoques psicosociales, culturales, macro sociales y de calidad.

No basta con decir claramente a donde queremos llegar con nuestros esfuerzos y como lo vamos a realizar, es imprescindible establecer cuáles son para la organización aquellos factores críticos que hay que cuidar para tener éxito (FCE), muchos de los cuales están íntimamente ligados con las estrategias que se van a desarrollar. De ahí que, si queremos tener dominio (control) sobre lo que esta ocurriendo, el control debe estar enfocado a evaluar el comportamiento de los factores críticos que inciden en el cumplimiento de las estrategias. Así, el control debe ser flexible, ajustándose permanentemente a las cambiantes estrategias de la organización.  

El concepto de control bajo la perspectiva de calidad, incluye un conjunto de herramientas y técnicas de control de los procesos básicos de la organización; entre ellas se tienen al control estadístico de procesos, control de la calidad total y la gestión de la calidad total.

Sus principios se centran en la formación y preparación de los empleados, la unión entre directivos y empleados para la formulación de estándares, el papel de la inspección por parte de los propios empleados de los resultados durante el proceso productivo y la revisión de los errores o desviaciones bajo la premisa de mejora continua .

17. Proceso metodológico para el desarrollo del sistema de control de gestión

1.- Diagnóstico Institucional: todo proceso de control de gestión comienza con el estudio propio del sistema a controlar. El diagnóstico tiene como objetivo, según Abad , identificar posibles obstáculos que puedan interferir en la eficacia del sistema, del mismo modo establecer si están dadas las condiciones para la ejecución del sistema propuesto e identificar los procesos claves para que el sistema opere sobre ellos y sus variables claves, a fin de garantizar en lo posible el éxito organizacional. Generalmente los análisis institucionales se orientan hacia el estudio estratégico de la organización, es decir identificando fortalezas y debilidades internas con su relación al entorno amenazante o facilitador de resultados productivos, de igual manera analiza normas, sistemas financieros, cultura organizacional, estructura, capacidad estratégica, desempeño institucional de recursos humanos, entre otros.

2.-Identificación de procesos Claves: luego de conocer como se encuentra el sistema a controlar, es necesario identificar los procesos claves para el éxito empresarial, el control de gestión no actúa sobre todos los procesos internos de la organización, sino por el contrario se centra en aquellos suficientemente importantes en el desempeño eficaz del sistema a controlar, van desde la situación financiera, pasando por la situación comercial, producción, productividad, personal, servicios al cliente, relaciones con otros entes, eficacia, eficiencia, calidad, pertenencia, entre otros.

3.- Diseño del sistema de indicadores: De la identificación de las áreas claves, se originan los indicadores que van a permitir medir atributos de dichos procesos y tomar las decisiones pertinentes para su corrección. Un indicador se define como la relación entre variables cuantitativas o cualitativas que permiten observar la situación y las tendencias de cambio generadas en el objeto o fenómeno observado, respecto a los objetivos y metas previstas e influencias esperadas.

18. Condiciones que influyen en el control de gestión

  • El entorno: este puede ser estable o dinámico, variante cíclicamente o completamente atípico. Una buena adaptación del entorno facilitada en desarrollo en la empresa.
  • Los objetivos de la empresa: ya sean de rentabilidad, de crecimiento, sociales y ambientales.
  • La estructura de la organización: según sea, funcional o divisional, implica establecer variables distintas, y por ende objetivos y sistemas de control también distintos.
  • El tamaño de la empresa: esta condición está relacionada con la centralización, mientras más grande la empresa es necesario descentralizarla, porque afecta la toma de decisiones debido a la gran cantidad de información que se maneja.
  • La cultura de la empresa: las relaciones humanas son muy importantes, y se debe incentivar y motivar al personal que labora en la empresa.

19. Cuadro de mando o de control

Cuando se trata de concretar un elemento tan característico como es el Cuadro de mando, no podemos obviar que éste se sitúa dentro del área de gestión de la empresa, la cual está fuertemente condicionada por el entorno en el que se mueve.

Además, la adaptación continuada al entorno empresarial es uno de los rasgos principales que se asocia al concepto de Cuadro de mando. De este modo, resulta interesante considerar el entorno dinámico que pueda afectar a la empresa.

En España, sobre mediados de siglo no existían empresas de grandes dimensiones, de manera que prácticamente no se delegaban responsabilidades directivas. El mercado financiero se encontraba poco desarrollado, y los ingenieros ocupaban posiciones de responsabilidad, por lo que la atención que pudieran prestar tomaba mayor énfasis sobre la Dirección de procesos industriales y sobre la eficiencia de la producción.
Hasta el tercer cuarto de siglo, la empresa no se tomaba como un todo, analizar un plano integral de la empresa resultaba bastante complejo, sobre todo por las herramientas contables y financieras con las que se podía contar.

Generalmente, no surgía ningún tipo de preocupación ante la gestión que se llevaba a cabo, la visión coyuntural de la gestión no era más que un principio de subsistencia empresarial, generándose problemas de carácter estructural que no tenían solución alguna. Por todo ello, el Cuadro de mando desde su origen hasta estas últimas décadas, no ha estado sometido a ninguna modificación.

En la actualidad, debido a las turbulencias del entorno empresarial, influenciado en la mayoría de los casos por una gran presión competitiva, así como por un auge de la tecnología, es cuando comienza a tener una amplia trascendencia.

El concepto de Cuadro de mando deriva del concepto denominado "tableau de bord " en Francia, que traducido de manera literal, vendría a significar algo así como "tablero de mandos", o "cuadro de instrumentos".

A partir de los años 80, es cuando el Cuadro de mando pasa a ser además de un concepto práctico, una idea académica, ya que hasta entonces el entorno empresarial no sufría grandes variaciones, la tendencia del mismo era estable, las decisiones que se tomaban carecían de un alto nivel de riesgo.

Para entonces, los principios básicos sobre los que se sostenía el Cuadro de mando ya estaban estructurados, es decir, se fijaban unos fines en la entidad, cada uno de éstos eran llevados a cabo mediante la definición de unas variables claves, y el control era realizado a través de indicadores.

Básicamente, y de manera resumida, podemos destacar tres características fundamentales de los Cuadros de mando:

  • La naturaleza de las informaciones recogidas en él, dando cierto privilegio a las secciones operativas, (ventas, etc.) para poder informar a las secciones de carácter financiero, siendo éstas últimas el producto resultante de las demás.
  • La rapidez de ascenso de la información entre los distintos niveles de responsabilidad.
  • La selección de los indicadores necesarios para la toma de decisiones, sobre todo en el menor número posible.

En definitiva, lo importante es establecer un sistema de señales en forma de Cuadro de mando que nos indique la variación de las magnitudes verdaderamente importantes que debemos vigilar para someter a control la gestión.

A la hora de disponer una relación de Cuadros de mando, muchos son los criterios que se pueden entremezclar, siendo los que a continuación describimos, los más indicativos para clasificar tales herramientas de apoyo a la toma de decisiones:

  • El horizonte temporal
  • Los niveles de responsabilidad y/o delegación
  • Las áreas o departamentos específicos

Otras clasificaciones son:

  • La situación económica
  • Los sectores económicos
  • Etc...

Se proponen seis etapas para elaborar un cuadro de mando:

  1. Análisis de la situación y obtención de información: En esta primera etapa la empresa debe de conocer en qué situación se encuentra, valorar dicha situación y reconocer la información con la que va a poder contar en cada momento o escenario, tanto la del entorno como la que maneja habitualmente. Esta etapa se encuentra muy ligada con la segunda.
  2. Análisis de la empresa y determinación de las funciones generales: La empresa habrá de definir claramente las funciones que la componen, de manera que se puedan estudiar las necesidades según los niveles de responsabilidad en cada caso y poder concluir cuáles son las prioridades informativas que se han de cubrir.
  3. Estudio de las necesidades según prioridades y nivel informativo: En esta etapa se cubren las prioridades informativas detectadas en el paso anterior.
  4. Señalización de las variables críticas en cada área funcional: En una cuarta etapa se han de señalizar las variables críticas necesarias para controlar cada área funcional. Estas variables son ciertamente distintas en cada caso, ya sea por los valores culturales y humanos que impregnan la filosofía de la empresa en cuestión, o ya sea por el tipo de área que nos estemos refiriendo. Lo importante en todo caso, es determinar cuáles son las importantes en cada caso para que se pueda llevar a cabo un correcto control y un adecuado proceso de toma de decisiones.
  5. Establecimiento de una correspondencia eficaz y eficiente entre las variables críticas y las medidas precisas para su control: Se ha de encontrar una correspondencia lógica entre el tipo de variable crítica determinada en cada caso, y el ratio, valor, medida, etc..., que nos informe de su estado cuando así se estime necesario. De este modo podremos atribuir un correcto control en cada momento de cada una de estas variables críticas.
  6. Configuración del Cuadro de mando según las necesidades y la información obtenida: En esta etapa debemos configurar el Cuadro de mando en cada área funcional, y en cada nivel de responsabilidad, de manera que albergue siempre la información mínima, necesaria y suficiente para poder extraer conclusiones y tomar decisiones acertadas.

De un modo muy genérico, el Cuadro de mando deberá estar constituido al menos por cuatro partes bien diferenciadas:

  • Las variables más destacables a controlar en cada situación y nivel de responsabilidad
  • Los indicadores con los que podremos cuantificar cada una de las variables
  • Las desviaciones producidas, cualquiera que sea el motivo que las ocasione
  • Las soluciones a tomar en cada caso, en la medida de lo posible

Los responsables de cada uno de los Cuadros de mando de los diferentes departamentos, han de tener en cuenta una serie de aspectos comunes en cuanto a su elaboración. Entre dichos aspectos cabría destacar los siguientes:

  • Los Cuadros de mando han de presentar sólo aquella información que resulte ser imprescindible, de una forma sencilla y por supuesto, sinóptica y resumida.
  • El carácter de estructura piramidal entre los Cuadros de mando, ha de tenerse presente en todo momento, ya que esto permite la conciliación de dos puntos básicos: uno que cada vez más se vayan agregando los indicadores hasta llegar a los más resumidos y dos, que a cada responsable se le asignen sólo aquellos indicadores relativos a su gestión y a sus objetivos.
  • Tienen que destacar lo verdaderamente relevante, ofreciendo un mayor énfasis en cuanto a las informaciones más significativas.
  • No podemos olvidar la importancia que tienen tanto los gráficos, tablas y/o cuadros de datos, etc..., ya que son verdaderos nexos de apoyo de toda la información que se resume en los Cuadros de mando.
  • La uniformidad en cuanto a la forma de elaborar estas herramientas es importante, ya que esto permitirá una verdadera normalización de los informes con los que la empresa trabaja, así como facilitar las tareas de contrastación de resultados entre los distintos departamentos o áreas.

De alguna manera, lo que incorporemos en esta herramienta, será aquello con lo que podremos medir la gestión realizada y, por este motivo, es muy importante establecer en cada caso qué es lo que hay que controlar y cómo hacerlo.

No deben perderse de vista los objetivos elementales que se pretenden alcanzar mediante el Cuadro de mando, ya que sin unos fines a alcanzar, difícilmente se puede entender la creación de ciertos informes. Entre dichos objetivos podemos considerar que:

  1. Ha de ser un medio informativo destacable. Sobre todo ha de conseguir eliminar en la medida de lo posible la burocracia informativa en cuanto a los diferentes informes con los que la empresa puede contar.
  2. Debe ser una herramienta de diagnóstico. Se trata de especificar lo que no funciona correctamente en la empresa, en definitiva ha de comportarse como un sistema de alerta. En este sentido, tenemos que considerar dos aspectos: A) Se han de poner en evidencia aquellos parámetros que no marchan como estaba previsto. Esta es la base de la gestión por excepción, es decir, el Cuadro de mando ha de mostrar en primer lugar aquello que no se ajusta a los límites absolutos fijados por la empresa, y en segundo advertir de aquellos otros elementos que se mueven en niveles de tolerancia de cierto riesgo. B) Esta herramienta debería de seleccionar tanto la cantidad como la calidad de la información que suministra en función de la repercusión sobre los resultados que vaya a obtener.
  3. En relación a la confrontación entre realizaciones y previsiones, ha de ponerse de manifiesto su eficacia. El análisis de las desviaciones es básico a la hora de estudiar la trayectoria de la gestión así como en el proceso de toma de decisiones a corto plazo.
  4. Debe promover el diálogo entre todos. Mediante la exposición conjunta de los problemas por parte de los distintos responsables, se puede avanzar mucho en cuanto a la agilización del proceso de toma de decisiones. Es preciso que se analicen las causas de las desviaciones más importantes, proporcionar soluciones y tomar la vía de acción más adecuada.
  5. Ha de ser útil a la hora de asignar responsabilidades. Además la disponibilidad de información adecuada, facilita una comunicación fluida entre los distintos niveles directivos y el trabajo en grupo que permite mejorar resultados.
  6. Ha de ser motivo de cambio y de formación continuada en cuanto a los comportamientos de los distintos ejecutivos y/o responsables. Ha de conseguir la motivación entre los distintos responsables. Esto ha de ser así, sobre todo por cuanto esta herramienta será el reflejo de su propia gestión.
  7. Por último y como objetivo más importante, esta herramienta de gestión debe facilitar la toma de decisiones. Para ello, el modelo debería en todo momento: A) Facilitar el análisis de las causas de las desviaciones. Para ello se precisaría de una serie de informaciones de carácter complementario en continuo apoyo al Cuadro de mando, además de la que pudiera aportarle el Controller, ya que en muchas ocasiones disfruta de cierta información de carácter privilegiado que ni siquiera la Dirección conoce. B) Proporcionar los medios para solucionar dichos problemas y disponer de los medios de acción adecuados. C) Saber decidir como comportarse. En cierto modo, estaríamos haciendo referencia a un sistema inteligente, a un sistema que se iría nutriendo de la propia trayectoria de la empresa, y que cada vez mejor, suministraría una información y un modo de actuar óptimo.

En relación con el tipo de información utilizada, el Cuadro de mando aparte de reunir información de similares características que la empleada en las distintas disciplinas de naturaleza contable, es decir, financiera, debe contener información de carácter no financiero. Ya desde su presentación como útil de gestión, el Cuadro de mando se destacaba por su total flexibilidad para recoger tal información.

Otro aspecto que cabe destacar es la relación mutua que ha de existir entre el Cuadro de mando y el perfil de la persona a quien va destinado. Precisamente, las necesidades de cada directivo, han de marcar la pauta que caracterice y haga idónea a esta herramienta en cada caso y situación, sobre todo con respecto al nivel de mayor responsabilidad de la jerarquía actual de la empresa, debido a que se precisa un esfuerzo mucho mayor de generalidad y síntesis.

Un rasgo más del Cuadro de mando es la solución de problemas mediante acciones rápidas. Cuando incorporamos indicadores de carácter cualitativo al Cuadro de mando, en cierto modo, éstos están más cerca de la acción que los propios indicadores o resultados financieros. Asimismo, estos indicadores nominales nos dan un avance en cuanto a qué resultados se van a alcanzar. Es importante tener en cuenta que el contenido de cualquier Cuadro de mando, no se reduce tan sólo a cifras o números, ha de ser un contenido muy concreto para cada departamento o para cada responsable. De igual manera, se ha de tener presente que la información que se maneja en un Cuadro de mando determinado puede ser válida para otro.

El último de los rasgos que diferenciarían al Cuadro de mando es el hecho de utilizar informaciones sencillas y poco voluminosas. Las disciplinas y herramientas contables habituales precisan una mayor dedicación de tiempo de análisis y de realización, y a la hora de tener que tomar decisiones, siempre van a necesitar de otros aspectos que en principio no tomaban parte de su marco de acción.

El Cuadro de mando se orienta hacia la reducción y síntesis de conceptos, es una herramienta que junto con el apoyo de las nuevas tecnologías de la información y comunicación, puede y debe ofrecer una información sencilla, resumida y eficaz para la toma de decisiones.

La estructura de los Cuadros de mando de los distintos departamentos y niveles de responsabilidad, no distan mucho entre sí en la gran mayoría de las empresas que los emplean. En nuestra opinión, consideramos que todos tienen una serie de elementos en común, entre los que podemos destacar:

  • La utilización de datos de naturaleza cuantitativa, ya sea en términos relativos o absolutos.
  • Un horizonte temporal de carácter mensual fijo. En la mayoría de las ocasiones el análisis de la información se da únicamente por meses, no pudiendo disponer de resúmenes de distinta duración.
  • La comparación entre los objetivos marcados y la gestión alcanzada, ha sido prácticamente hasta la fecha, la base de análisis de cada una de las responsabilidades en la empresa.
  • La utilización de gráficos explicativos y anexos a los Cuadros de mando, ha sido escasa.
  • Existe cierta unanimidad en todas las empresas en cuanto a preparar un gran número de informes que facilitan resúmenes y datos de la gestión llevada a cabo por los responsables, pero no a dar soluciones o posibles vías de acción para cada situación.
  • Por regla general, y cuando existe un hardware adecuado, la hoja de cálculo y aplicaciones similares son los medios más extendidos de análisis de datos, sin estar complementados por otras técnicas mucho más actuales.

En la mayoría de los casos, y con un carácter de tradicionalidad, el Cuadro de mando mantiene una estructura habitual como la que podemos contemplar a continuación:

Estructura habitual del cuadro de mando

En este modelo se emplea una técnica que se asemeja al funcionamiento de un semáforo, con la cual se nos advierte que la empresa se excede en ciertos niveles de peligrosidad indicándonoslo en el color rojo o, en otros casos, en el color amarillo si se encuentra en situaciones delicadas de alerta, o lo que es lo mismo, entrando en ciertos niveles de precaución; en el peor de los casos indica con color rojo que se deben tomar acciones correctivas.

Por otra parte, a pesar de que el cuadro de control difiere según el fin, la empresa o las condiciones de la gestión a controlar, generalmente, encontramos que el control de gestión se orienta a los procesos críticos de la organización, es decir, a los aspectos vitales que garanticen el éxito de la misión. Por ello, los factores críticos de éxito constituyen el punto inicial estratégico de un buen sistema de control. Un ejemplo de factores de éxito considerados son los que se muestran en la siguiente tabla:

FACTORES DE ÉXITO

DEFINICIÓN

ASPECTOS CLAVES

EFICACIA

Cumplimiento de metas. Mide el grado porcentual de cumplimiento con respecto a una meta

  • Adecuación de recursos
  • Costo-Efectividad
  • Costo-Beneficio

EFECTIVIDAD

Congruencia entre lo planificado y los logros obtenidos en el tiempo.

  • Metas formuladas
  • Cumplimiento de metas
  • Logros
  • Gestión

RESULTADO/RELEVANCIA

Para qué se investiga. Mide el total alcanzado.

  • Pertinencia
  • Impacto
  • Oportunidad

PRODUCTIVIDAD

Capacidad transformadora del conocimiento producido. Mide la relación costo-producto

  • Cobertura
  • Costos
  • Calidad

DISPONIBILIDAD DE RECURSOS

¿Con qué se dispone y cuánto se requiere?

  • Humanos
  • Materiales
  • Financieros

Factores de éxito

De tal forma que un formato propicio para este cuadro de control es el siguiente:

Cuadro de mando
Balanced Scorecard (o Cuadro de Mando Integral)
De acuerdo a la necesidad de una mejora sustancial en los resultados operacionales y financieros de la empresa, se ha llevado a la progresiva búsqueda de nuevas técnicas gerenciales de planificación dando paso a identificar cuales son las estrategias que se deben seguir para alcanzar la visión de la empresa. Uno de estos esquemas es conocido como balanced scorecard, metodología que logra integrar los aspectos de la gerencia estratégica y la evaluación de desempeño al negocio.
El BSC es la representación en una estructura coherente, de la estrategia del negocio a través de objetivos claramente
encadenados entre sí, medidos con los indicadores de desempeño, sujetos al logro de unos compromisos determinados y respaldados por un conjunto de iniciativas o proyectos.
El BSC es una herramienta de gestión que permite un análisis objetivo del rendimiento organizacional, considerando el impacto que procesos y funciones ejercen en el desempeño global del negocio.
.La metodología del Balanced Scorecard traduce los objetivos estratégicos en términos que puedan ser comprendidos, comunicados y sobre los que se pueda actuar operacionalmente.
El BSC parte de la visión y estrategia de la empresa. A partir de allí se definen los objetivos financieros requeridos para alcanzar la visión:

  1. Financiera: Tiene como objetivo el responder a las expectativas de los accionistas. Esta particularmente centrada en la creación de valor para el accionista con altos índices de rendimiento. Los temas claves de esta perspectiva para los cuales hay que seleccionar indicadores son:
  2. Crecimiento y diversificación de los ingresos
  3. Reducción de costos / Mejora de la productividad
  4. Utilización de los activos / Estrategia de inversión
    1. Participación de mercado
    2. Retención de clientes
    3. Adquisición de clientes
    4. Satisfacción de clientes
    5. Rentabilidad de clientes
  5. Clientes: Se responde a las expectativas de los clientes, ya que de éstas dependerán en gran medida la generación de ingresos. Los temas claves de esta perspectiva para los cuales hay que seleccionar indicadores son:
    1. Innovación
    2. Operatoria
    3. Servicio post venta
  6. Procesos Internos: Se identifican los objetivos e indicadores estratégicos asociados a los procesos claves de la organización de una empresa. Del éxito de este factor dependen las expectativas de clientes y accionistas. Los temas claves de esta perspectiva para los cuales hay que seleccionar indicadores son:
    1. La satisfacción del empleado
    2. La retención del empleado
    3. La productividad del empleado
  7. Aprendizaje Organizacional: Se refiere a los objetivos e indicadores que sirven como plataforma o motor del desempeño futuro de la empresa. La consideración de esta perspectiva dentro del BSC refuerza la importancia de invertir para crear valor futuro. Sin Recursos Humanos motivados, capacitados y entrenados no hay posibilidad de lograr éxito. Se necesitan indicadores que informen acerca del nivel de motivación, capacitación y entrenamiento requerido para lograr el nivel de proceso interno que requiere este modelo de negocio. Los temas claves de esta perspectiva para los cuales hay que seleccionar indicadores son:

Perspectivas del balanced scorecard

20. Fines del control de gestión

  • Informar: es necesario transmitir y comunicar la información para la toma de decisiones e identificar los factores claves de la organización para así determinar cual es la información clave. El funcionario debe seleccionarla, obtenerla y transmitirla a través de los canales formales de comunicación de la estructura de la organización.

La respuesta a las siguientes preguntas tienden a resolver problemas de estructura:
¿Qué información se necesita?
¿Dónde se almacena?
¿De quién y a quién va?
¿Cómo valuarla?
¿Cómo suplantarla?

  • Coordinar: Encamina las actividades a realizar eficazmente a la obtención de los objetivos.
  • Evaluar: La consecución de las metas u objetivos se logra gracias a las personas y su valoración es la que pone de manifiesto la satisfacción del logro.
  • Motivar: El impulso y la ayuda es de mucha importancia para alcanzar las metas.

21. El control organizacional desde el punto de vista humano

El control social corresponde a todos los medios y métodos utilizados para inducir a las personas o grupos a corresponder a las expectativas de una organización social o de la propia sociedad. Hemos visto que las organizaciones sociales, y también las empresas, ejercen poder o control sobre las personas. El poder es una condición que consiste en ejercer una voluntad sobre otra persona o grupo de personas, pudiendo controlar de este modo su comportamiento. El poder es legítimo cuando los individuos que lo ejercen están investidos de autoridad. La autoridad para ejercer el poder es institucionalizada por medio de documentos escritos, como estatutos, manuales de la organización, descripción de cargos, circulares, cartas, etc., debidamente publicados para conocimiento general de las personas involucradas.

El control social puede hacerse también mediante normas, reglas y reglamentos. Éstos pueden ser prescriptivos o restrictivos. Son prescriptivos cuando especifican lo que las personas deben hacer; son restrictivos cuando especifican algo que las personas no deben hacer.

Entre los principios de la organización se establece dicha normalización o especificaciones de lo que debe o no hacer o ejercer una persona. Institucionalmente es preferible referir el potencial humano como principal materia prima de la empresa; a través del principio de especialización y el principio de paridad autoridad-responsabilidad se delegan y especifican las funciones básicas a cumplir por este elemento de la organización (la persona). La organización como tal ha tenido muchas acepciones y se ha trazado a través de muchas teorías, una de ellas, y muy nombrada, por cierto, es la teoría burocrática de Max Weber. Esta teoría "privilegia la estructura organizacional como medio de garantizar que todo suceda de acuerdo con lo establecido previamente, es la estructura burocrática. Ante todo, la estructura burocrática significa control; en todo sentido. La burocracia está asentada en normas y reglamentos para asegurar la disciplina. Para esto, la burocracia acentúa la formalización. Todo debe hacerse por escrito, para que pueda ser debidamente documentado. Además, la burocracia reposa en una jerarquía de autoridad, para que el mando pueda conducirse mejor y para que sea más seguro el control, ya que la especialización resultante de la división del trabajo exige coordinación. Esta especialización hace que la burocracia seleccione sus participantes de acuerdo con su calificación y competencia profesional, promoviéndolos a medida que sus habilidades se van desarrollando. La intensa división del trabajo y la especialización conducen a la impersonalidad en el ejercicio de la autoridad, el cual está íntimamente ligado al sistema de normas y reglamentos capaz de garantizarlo en todos los niveles de la jerarquía. Cuando esas características burocráticas, el aumento de las normas y reglamentos, la formalización, la rígida jerarquía de autoridad, la división del trabajo y la consiguiente especialización, la selección y promoción del personal con base en la competencia técnica y profesional, la impersonalidad en el tratamiento de las personas- se vuelven muy acentuadas, la sensación de burocratización tiende a asfixiar a las personas y a limitar su comportamiento dentro de esquemas muy rígidos. Esto produce la despersonalización de las relaciones, la interiorización de las reglas y de los reglamentos en la manera de pensar, y la alienación gradual respecto al trabajo. La apatía, el desinterés y el distanciamiento pasan a ser las características del comportamiento de las personas en las empresas que tienen exagerada burocratización.

22. Conclusiones

El control es una función administrativa: es la fase del proceso administrativo que mide y evalúa el desempeño y toma la acción correctiva cuando se necesita. De este modo, el control es un proceso esencialmente regulador.

El control es una función administrativa: es la fase del proceso administrativo que mide y evalúa el desempeño y toma la acción correctiva cuando se necesita. De este modo, el control es un proceso esencialmente regulador.

La aplicación de un control en las organizaciones busca atender dos finalidades principales: Corregir fallas o errores existentes: Y Prevenir nuevas fallas o errores de los procesos.

Para que el control sea efectivo debe desarrollarse como una unidad y aplicarse en todo tiempo a la empresa, pudiendo clasificarse en: Control Preliminar, Control concurrente, Control posterior

El control se apoya en la comprobación, fiscalización e inspección de las variables organizativas para descubrir desviaciones reales o potenciales que influyen o pueden llegar a influir sobre los objetivos de la empresa.

La aplicación del control a una unidad, elemento, proceso o sistema puede generar distintos beneficios y logros, sin embargo, su aplicación indistintamente del proceso que se quiera "controlar" es importante porque establece medidas para corregir las actividades, de forma que se alcancen los planes exitosamente, se aplica a todo; a unidades, a personas, y a los actos, determina y analiza rápidamente las causas que pueden originar desviaciones, para que no vuelvan a presentar en el futuro, localiza los sectores responsables de la administración, desde el momento en que se establecen las medidas correctivas, proporciona información acerca de la situación de la ejecución de los planes, sirviendo como fundamento al reiniciarse en el proceso de planeación, reduce costos y ahorra tiempo al evitar errores, su aplicación incide directamente en la racionalización de la administración y consecuentemente, en el logro de la productividad de todos los recursos de la empresa.

El Sistema de Control de Gestión es en términos sencillos definir: quién, cómo y cuándo, aplicará las estrategias de control y evaluará los Factores Críticos de Éxito de la organización (FCE), además de quién tomará y ejecutará las decisiones correctivas en los diferentes niveles de la entidad.

 

Para empezar podemos definir la mercadotecniacomo una ciencia, un procesosocial y administrativo mediante el cual grupos e individuos obtienen lo que necesitan y desean a través de generar, ofrecer e intercambiar productos de valorcon sus semejantes. El especialista en el área de mercadotecnia se llama "Mercadólogo".

El punto de partida de la mercadotecnia radica en las necesidades y deseos humanos. La necesidad humana es el estadoen el que se siente la privación de algunos satisfactores básicos. Los deseos, consisten en anhelar los satisfactores específicos para estas necesidades profundas. La demanda, por su parte, consiste en desear productos específicos que están respaldados por la capacidad y la voluntad de adquirirlos.

Los mercadólogos, influyen en los deseos de las personas, haciendo que los productos resulten atractivos, accesibles y disponibles con facilidad para el consumidor al que van dirigidos.

Producto es todo aquello que puede ofrecerse para satisfacer una necesidad o un deseo, la importancia de los productos es disfrutar de los servicios que ofrecen.

Valor es la estimación que hace el consumidor de la capacidad total del producto para satisfacer sus necesidades.

El intercambio es el acto de obtener de alguien un producto que se desea ofreciendo algo a cambio.

Una transacción comprende varias dimensiones: al menos dos objetos de valor, acuerdo sobre las condiciones, un tiempoconvenido y un lugar convenido. Las transacciones, dan lugar a conflictos basados en la mala interpretacióno la mala fe. Una transacción difiere de una transferencia. La mercadotecnia debería limitarse al estudio de las transacciones y no el de las transferencias; sin embargo, el comportamiento de la transferencia puede también extenderse a través del conceptode intercambio. El mercadólogo busca provocar una respuesta conductual de la otra parte. La mercadotecnia consiste en accionesque se emprenden para provocar las respuestas que se desean por parte de un público meta, hacia algún objetivo. Para efectuar intercambios exitosos, el mercadólogo analiza lo que cada parte espera dar y recibir.

El proceso de tratar de llegar a términos convenientes para ambas partes recibe el nombre de negociación. La negociación conduce, ya sea términos aceptables para ambas partes, o la decisión de no hacer la transacción. Los mercadólogos hábiles tratan de establecer relaciones a largo plazo, confiables y seguras con clientes, distribuidores, comerciantes y proveedores. Esto se logra prometiendo y entregando a la otra parte, alta calidad, buen servicio y preciosjustos todo el tiempo. Se consigue fortaleciendo los lazos económicos, técnicos, sociales con las otras partes. Las relaciones de mercadotecnia reducen costosy tiempo en las transacciones. El resultado final de las relaciones de mercadotecnia es la estructuración de un bien único de la empresa, llamado red de mercadotecnia. Esta, está formada por la empresa y las compañías con las cuales ha establecido relaciones comerciales sólidas y confiables. La mercadotecnia está tratando de sustituir la maximización de utilidades en cada transacción individual por la maximización de las relaciones provechosas con las otras partes. El principio de operación es establecer buenas relaciones y transacciones provechosas, como las siguientes.

El mercadoestá formado por todos los clientes potenciales que comparten una necesidad o deseo específico y que podrían estar dispuestos a participar en un intercambio que satisfaga esa necesidad o deseo.

En tiempos antiguos, el término mercado se refería al lugar donde compradores y vendedores hacían el intercambio de mercancías, aunque los mercadólogos consideran que los vendedores constituyen la industriay los compradores el mercado. Hay varios tipos de mercado: el mercado de producto, el mercado demográfico, el mercado geográfico, el mercado de votantes, el mercado de trabajo y el mercado de donantes.

El concepto de mercado nos remite al concepto de mercadotecnia, es una actividad humana que está relacionada con los mercados, significa trabajar en ellos para actualizar los intercambios potenciales con el objeto de satisfacer las necesidades humanas. El mercadólogo es aquel que busca un recurso de alguien más y está dispuesto a ofrecer algo de valor a cambio, puede ser un vendedor o un comprador, el mercadólogo es una empresa que sirve a un mercado de usuarios finales frente a la competencia, su efectividad relativa está influida por sus respectivos proveedores, además de las fuerzas ambientales.

 

Administración de la mercadotecnia

La administraciónde la mercadotecnia es el proceso de planear y ejecutar la concepción, fijación de precios, promoción y distribuciónde ideas, mercancías y servicios para dar lugar a intercambios que satisfagan objetivos individuales y organizacionales. Es un proceso que comprende análisis, planeación, instrumentación y control; que abarca bienes, servicios e ideas; que se basa en la teoría del intercambio y cuya meta es satisfacer a las partes involucradas. La administración de la mercadotecnia, a lo largo del tiempo, se le ha identificado con las funciones y el comportamiento del personalcon el mercado de clientes. La labor de la mercadotecnia en el mercado de clientes la llevan a cabo los gerentes de ventas, representantes de ventas, los gerentes de publicidady promoción, los investigadores de mercado, los gerentes de servicio a clientes, gerentes de producto y de marca, los gerentes de industria y mercado y el vicepresidente de mercadotecnia. A la administración de la mercadotecnia le corresponde la funciónde influir en el nivel, la oportunidad y la composición de la demanda, de tal forma que contribuya a que la organización logre sus objetivos.

La organización se forma una idea del nivel deseado de transacciones con el mercado meta. Sin embargo, en ocasiones el nivel real de demanda puede estar abajo, ser igual o estar por encima del nivel deseado en cuanto a demanda. Los ejecutivos de mercadotecnia confrontan esta tarea por medio de la investigación, la planeación, la instrumentación y el control de mercados. Dentro de la planeación deben tomar decisiones respecto a los mercados meta, el control del mercado, desarrollodel producto, fijación de precios, canales de distribución, distribución física, comunicación y promoción.

 

Producción

El concepto de producción afirma que los consumidores favorecerán a aquellos productos que estén ampliamente disponibles y tengan bajo costo. Los directivos de las organizacionesorientadas hacia la producción concentran sus esfuerzos en lograr una gran eficiencia en la producción y una cobertura amplia de distribución.

Algunas organizaciones que brindan servicios también se apegan al concepto de producción,. Gran parte de l ejercicio médico y dental esta organizado con base en los principios de ensamble, al igual que algunas entidades gubernamentales.

Producto

El concepto de producto plantea que los consumidores favorecerán a aquellos productos que ofrezcan la mejor calidad, rendimiento o característica novedosas. Los directivos de organizaciones orientadas hacia el producto canalizan su energía a la producción de buenos productos y a mejorarlos conforme transcurre el tiempo.

Estos ejecutivos suponen que el comprador admira los productos bien hechos y es capaz de apreciar su calidad y rendimiento, están enamorados de su producto y no alcanzan a darse cuenta de que el mercado quizás no se mostrará tan receptivo. El concepto de mercado lleva a la miopía de mercadotecnia, es decir, a una desmedida concentración en el producto y no en la necesidad.

Venta

El concepto de ventaafirma que si se les deja solos, los consumidores, por lo regular, no comprarán suficientes productos de la empresa. Por tanto, ésta debe emprender un esfuerzo agresivo de ventas y promoción.

Este concepto supone que los consumidores siempre manifiestan inercia o resistenciade compra y que tienen que ser persuadidos para que compren más; y que las empresas disipen de un gran acervo de herramientas de promoción y ventas para estimular más compras. En la moderna economíaindustrial la capacidad productiva ha sido estructurada a tal grado que la mayor parte de los mercados es de compradores y los vendedores tienen que trabajar dura para ganar clientes. El público adopta la mercadotecnia con ventas y publicidad agresiva. Las ventas se enfocan en las necesidades del vendedor, la mercadotecnia en las necesidades del comprador.

El concepto de mercadotecnia se sustenta en cuatro pilares principales que son: el mercado meta, necesidades del consumidor, mercadotecnia coordinada y rentabilidad.

Mercado Meta: es un grupo de clientes a quienes una organización dirige específicamente su esfuerzo de mercadotecnia.

Necesidades del consumidor: carácter de aquello de lo que no pueden prescindir los clientes.

Mercadotecnia coordinada: esto vendría siendo como el juegode promoción-venta de un producto de una empresa dirigido a un grupo de personas. La mercadotecnia combinada significa dos cosas: la primera, que deben coordinarse entre sí, y, la segunda, la mercadotecnia debe estar bien combinada con los otros departamentos de la empresa. La mercadotecnia no funciona bien cuando sólo un departamento y sus empleados se percatan del efecto que tiene la satisfacción del cliente.

Rentabilidad: el propósito del concepto de mercadotecnia es ayudar a las organizaciones a alcanzar sus metas. La clave no es lograr utilidades como primer fin, sino lograrlas como consecuencia de haber realizado un buen trabajo. Una empresa hace dinerosatisfaciendo las necesidades de sus clientes mejor que la competencia. Los mercadólogos deben participar en el análisis de generar utilidades potenciales de diferentes maneras mercadotécnicas. La mayoría de las empresas todavía no ha logrado un plena madurez de mercadotecnia. Piensa que la tiene por contar con un equipo de mercadotecnia. Pero un departamento de mercadotecnia no asegura que una empresa esté orientada hacia el mercado, la mayor parte de las empresas no adopta cabalmente el concepto de mercadotecnia, hasta que las circunstancias la inducen a él, ya sea por: declinación de las ventas, crecimiento lento, patrones cambiantes de compra, alta competencia, aumento de los gastos de mercado.

En el proceso de transformación a empresas orientadas hacia el mercado, las compañías pueden enfrentarse con 3 obstáculos: la resistencia organizada, el lento aprendizaje y el olvido rápido.

Resistencia Organizada: en algunos departamentos de las empresas, no les agrada estar estructurados con base en la mercadotecnia, porque con esto se ve amenazada su fuerza en la organización. La función de la mercadotecnia se ve como una de las diferentes funciones de la empresa de igual importancia, en una relación de verificación y equilibrio.

Lento aprendizaje: muchas organizaciones se las han arreglado para introducir la mercadotecnia en su organización. se contrata al personal externo, especialistas en mercadotecnia,, se introducen sistemas para planeación y control de mercadotecnia. Aún si emprenden estas actividades, el aprendizaje en cuanto a que es la mercadotecnia fluye con lentitud.

Olvido Rápido: aun después de que la mercadotecnia se ha instituido, la administración debe luchar contra una marcada tendencia a olvidar los principios básicos de la materia. La administración tiende a olvidar los principios de la mercadotecnia a raíz de su éxito. Hay que conocer el mercado meta de la empresa y la forma de satisfacerlo.

 

Mercadotecnia Social

El concepto de mercadotecnia social afirma que la labor de las organizaciones es determinar las necesidades, deseos e intereses de los mercados meta y entregarles los satisfactores deseados, en forma más eficaz y eficiente que la competencia, de tal manera que se proteja e incremente el bienestar del consumidor y de la sociedad.

Hace un llamado a los mercadólogos para que ponderen tres consideraciones al establecer sus políticas de mercadotecnia: las utilidades de la empresa, la satisfacción del consumidor, y el interés público.

La rápida adopción de la administración de la mercadotecnia

En la actualidad la administración de la mercadotecnia es un asunto de interés creciente en organizaciones de todo tipo y tamaño, dentro y fuera del sector empresarial y en toda clasede países.

En el sector empresarial

El sector empresarial, diversas compañías tomaron concienciade la mercadotecnia en diferentes momentos. La mercadotecnia se difundió con mas rapidez en empresas de productos empacados, de productos duraderos y de equipo industrial, en ese orden.

En el sector no lucrativo

La mercadotecnia capta cada vez mas el interés de organizaciones no lucrativas, como universidades, hospitales , iglesias, etc... estas organizaciones tienes problemas de mercado. Sus administradores luchan por mantenerlas vivas ante el cambio acelerado en las actitudes del consumidor y la disminución de recursos financieros.

En el sector internacional

Muchas empresas internacionales están invirtiendo en mejorar sus sistemas de mercadotecnia en general. Las multinacionales han introducido y difundido prácticas modernas de mercadotecnia en todo el mundo. Esta tendencia ha estimulado a empresas nacionales mas pequeñas de varios países a empezar a interesarse en estos métodos para fortalecer su mercadotecnia y estar en condiciones de competir eficazmente con empresas multinacionales.

 

Una empresa es una organización o institución dedicada a actividades o persecución de fines económicos o comerciales. Se ha notado que, en la práctica, se pueden encontrar una variedad de definiciones del termino. Eso parece ser debido por lo menos en parte a que a pesar de su aparente simplicidad el concepto es complejo. Así, se puede considerar que esas diferencias enfatizan diversos aspectos. A continuación se ofrecerán algunas:

Una definición de uso común en círculos comerciales es: “Una empresa es un sistema que interacciona con su entorno materializando una idea, de forma planificada, dando satisfacción a unas demandas y deseos de clientes, a través de una actividad económica". Requiere de una razón de ser, una misión, una estrategia, unos objetivos, unas tácticas y unas políticas de actuación. Se necesita de una visión previa y de una formulación y desarrollo estratégico de la empresa. Se debe partir de una buena definición de la misión. La planificación posterior está condicionada por dicha definición.[1]

La Comisión de la Unión Europea sugiere: "Se considerará empresa toda entidad, independientemente de su forma jurídica, que ejerza una actividad económica. En particular, se considerarán empresas las entidades que ejerzan una actividad artesanal u otras actividades a título individual o familiar, las sociedades de personas y las asociaciones que ejerzan una actividad económica de forma regular."[2]

De acuerdo al Derecho internacional, la empresa es el conjunto de capital, administración y trabajo dedicados a satisfacer una necesidad en el mercado.[3]

Un diccionario legal de EEUU las define como: “an economic organization or activity; especially:  a business organization” (una organización o actividad económica; especialmente una organización de negocios)[4]

Otra definición -con un sentido mas académico y de uso general entre sociólogos- es: “Grupo social en el que a través de la administración de sus recursos, del capital y del trabajo, se producen bienes o servicios tendientes a la satisfacción de las necesidades de una comunidad. Conjunto de actividades humanas organizadas con el fin de producir bienes o servicios.”[5]

 

.

 

INTRODUCCION

Por vivir en un país que avanza en lo económico, en este trabajose estudiaran, analizaran y se aprenderá sobre la clasificación y los distintos tipos de empresasy sus aspectos, con el fin de que posteriormente podamos conocer y ubicar a cada una de estas.

CLASIFICACION DE LAS EMPRESAS

Dependiendo de la constituciónlegal podemos decir que se clasifican en:

  1. SOCIEDAD ANONIMA: Es aquella que esta constituida de un capitalsocial en un fondo común dividido en acciones y la administraciónesta a cargo de un directorio compuesto por miembros elegidos y renovados en las juntas generales ordinarias de accionistas.

La leyintroduce dos formas especiales de sociedades anónimas:

  • SOCIEDAD ANONIMA ABIERTA: Es aquella que hace ofertapublica de sus acciones según la Ley de Mercado de Valores, que tienen 500 o más accionistas o al menos el 10% de su capital suscrito a un mínimo de 100 personas. Estas son fiscalizadas por la Superintendencia de Valores y Segurosy distribuyen dividendos en efectivo equivalentes al menos al 30% de sus utilidades netas en cada periodo, a menos que se acuerde lo contrario en la junta ordinaria de accionistas.
  • SOCIEDAD ANONIMA CERRADA: Son aquellas que no cumplen con ninguno de los requisitos anteriores. Las sociedades anónimas cerradas tienen la libertad para definir en sus estatutos la forma que estimen conveniente la distribución de sus utilidades.
  1. SOCIEDAD COLECTIVA: También se conoce como sociedadlimitada, ya que su principal característica radica en que en un caso de dificultad comercial los socios que la conforman deben responder no tan solo con su aporte capital, sino que también con sus bienes personales.

Dentro de este tipo de sociedades también tenemos dos tipos:

  • Comerciales : su principal característica es que los socios son responsables ilimitados y solidarios de todas las obligacionessociales legalmente contraidas.
  • Civiles : Es cuando los socios son responsables ilimitados, pero a prorrata de los aportes.

Considerando el grado de responsabilidad de los socios, son muy pocas las sociedades de este tipo.

  1. EN COMANDITA: Es aquella en que existen por una parte los socios capitalistas llamados también comanditarios y por otra parte están los socios gestores que son los que se obligan a administrar el aporte hecho por los socios capitalistas a la caja social. Y sus socios capitalistas desean tener injerencia en su administración.
  2. LIMITADA : Es aquella en todos los socios administran por derecho propio por todos los socios, aunque generalmente se opta por delegar la administracióna uno de los socios o a terceros. Los socios son responsables solo hasta el monto de sus aportes o la suma mayor que se indique en los estatutos sociales, esto es que en caso que esta presente problemaseconómicos los socios no corren el riesgode perder todos sus bienes, sino que responderán solo con el monto que hayan aportado al capital de la empresa.

Dependiendo del aspecto que se le considere podemos clasificar una diversidad de empresas, las cuales nombraremos a continuación:

  1. Dependiendo del origen del capital: Podemos clasificar las empresas según el aporte de su capital y a quienes dirijan sus actividades, se clasifican en:

Comprende todos los Ministerios, Organismos y Servicios del Estado

Ej. Ministerio de Vivienda y Urbanismo, Onemi, Inspección del Trabajo. , Etc.

  • Poder Judicial

Comprende todos los organismos de Justicia del Estado.

Ej. Tribunales de Justicia, Corte Suprema de Justicia, Corte de Apelaciones, Juzgados del Crimen, Juzgados Civiles, Juzgados de Menores y del Trabajo.

  • Poder Legislativo

Comprende a todos los organismos del Estado que crean, aprueban y modifican leyes, junto al Presidente de la República y fiscalizan los actos del Gobierno.

Ej. Cámara de diputados y el Senado.

  • Municipalidades

Se entiende que son todas las Municipalidades del país.

Ej. Municipalidad de Santiago

  • Hospitales Públicos

Comprende a todos los hospitales del país dependientes del Ministerio de Salud.

Ej. Hospital San Juan de Dios

Dice que son aquellas Universidades creadas por ley en las cuales tiene participación el Estado. Ej. Universidad de Chile

  • Liceos y Colegios Fiscales

Comprende todos los Colegios, Liceos y Jardines infantiles Públicos.

Ej. Colegio Rebeca Matte Bello.

  • Empresas del Estado

Comprende todas las empresas donde el capital es del Estado.

Ej. Codelco, Enap, Etc.

  • Privadas : Dice de aquellas empresas donde el capital es de privados, estas pueden ser nacionales o transnacionales y su fin es el lucro y se dividen dependiendo del giro o actividad que realizan, las cuales se dividen en:

INDUSTRIALES

Son aquellas en las cuales la actividad esencial es la producción de productos o bienes, mediante la extracción de materias primas.

  • PRIMARIAS

Dice de todas aquellas que explotan los recursos naturales renovables como no renovables, en este tipo tenemos:

  1. Las extractivas: Tienen como único fin explotar los diversos recursos naturales, como las mineras, pesqueras, madereras, petroleras, Etc.
  2. Mineras : Se definen como ligada a la extracción, producción y comercialización de los recursos mineralesno renovables con el fin de obtener beneficios económicos. Este sector tiene fuertemente orientadas sus ventas al extranjero, siendo Chile el mayor productor y exportador de Cobre, Nitrato y Litio, además de ser el mayor productor mundial de Yodo.

    Pesqueras : Se defines como ligada a la extracción y explotación de las riquezas del mar y comprenden todas las actividades destinadas a capturar, cazar, segar, poseer, recolectar, conservar y utilizar todas las especies hidrobiologicas que tienen el mar como fuente de vida.

    Nota: Hay que tener presente que no se considera como actividad extractiva la Acuicultura.

  3. Las Agropecuarias: Este sector esta constituido por dos actividades la Agrícola y la Ganadera o Pecuaria, las cuales están constituidas por una actividad primaria productora la cual puede llevarse a cabo en la tierrao no y una actividad secundaria de elaboración o transformación que puede llevarse a cabo en cualquier otro lugar, en este sector tiene espacio la producción de hortalizas, cereales, frutas, viñas y ganadería. La ganadería se refiere netamente a la actividad de criar animales para su posterior ventao faenacion para su venta.
  4. Las Silvícolas: Estas tienen como fin explotar y cosechar los bosques nativos como plantaciones, regenerar y proteger los bosques, tanto como para recolectar sus productos como también realizar actividades de forestación, plantación, replante, conservación de bosques y zonas forestadas.
  • SECUNDARIAS
  1. Las Manufactureras: Dice de todas aquellas que tienen como fin elaborar o convertir materias primas, productos semi-elaborados y productos terminados, con la finalidad de tranzarlos en el mercado nacional o internacional y dentro de estas tenemos: Empresas que producen bienes de producción, estas tienen como fin satisfacer la demanda de empresas de consumofinal, y Empresas que producen bienes de consumo final, las que se alimentan de las empresas que producen bienes de producción.

B) De Construcción: Son todas aquellas que realizan obras publicas y privadas, como la construcción de calles, carreteras, casas, edificios, Etc.

COMERCIALES

Dice de todas aquellas que se dedican o realizan el acto propio de comercio, y su función principal es la compra-venta de productos terminados en la cual interfieren dos intermediarios que son el productor y el consumidor, dentro de las que podemos señalar:

  • La compra y permuta de cosas muebles, hechas con animo de venderlas, permutarlas o arrendarlas.
  • La compra de un establecimiento comercial.
  • Las empresas de fabricas, distribuidoras, almacenestiendas, bazares.
  • Las empresas de transporte por tierra, mar, ríos o vías navegables.
  • Las empresas de depósitos de mercadería, provisiones o suministros, las agencias de negocios.
  • Las empresas de espectáculos públicos.
  • Etc.

También dentro de este sector podemos determinar tipos de empresassegún la cantidad en el monto de las ventas, por ello tenemos que hay:

Empresas Mayoristas: Que son aquellas que venden a empresas minoristas y también a otras mayoristas a gran escala.

Empresas Minoristas: Son aquellas que venden sus productos al consumidor al detalle.

DE SERVICIO

Son todas aquellas que realizan una actividad comercial, productiva y prestadora de servicios con fines de lucro.

Así tenemos empresas que prestan servicios a la comunidad con el fin de recuperar dineros, como Agua, Luz, Gas.

DE SERVICIOS FINANCIEROS

Son todas aquellas que realizan una actividad comercial, prestadora de servicios de intermediacion relacionados al ámbito de generación de valor a través del dinero.

Así tenemos:

  • Bancos e Instituciones Financieras: Bancos Nacionales, Internacionales.
  • Oferta y Contratación de Seguros: Compañías de seguros generales, de vida, Etc.
  • Administradoras de Fondos: Generales, de Pensiones Mutuos, para la Vivienda, de Inversión.
  • Mercado de Valores: Bolsa de Comercio, de Valores, Corredores.
  • Otros Servicios Financieros: Factoring, Leasing, Casas de Cambio.

Dentro estas también tenemos las empresas de servicios de apoyo como: Administradoras de tarjetas de crédito, clasificadoras de riesgo, empresas de cobranza, asesorías y consultoras financieras.

NOTA: TODAS LAS EMPRESAS PRIVADAS SON FISCALIZADAS POR EL SERVICIO DE IMPUESTOS INTERNOS.

CONCLUSION

Después de leer este trabajo me he dado cuenta cuantos tipos de empresas existen y cual es su clasificación para en caso de querer crear una empresatener como el paso inicial y para poder entender un poco mas acerca de lo que son las empresas como se forman, cuales son sus actividades como funcionan y así empezar a conocer este mundo empresarial.

 

 

ENSAYO DE TECNOLOGIA

 

elaboral un ensayo con los temas tratados en tecnologia minimo una hoja normas icontec, y grafico

 

En mi opinion todo lo que hemos llevado de tecnologia es lo mas importante de ello, ya que esto nos sirve mas adelante para seguir estudiando ya sea estudiando informatica o en otra cosa todo lo que hemos aprendido nos sirve como etica ya que si sabemos lo importante de la tecnologia tendremos mas educacion, mas saber como por ejemplo el disco duro de un computador es lo mas importante ya que es lo que guarda toda la informacion, y seguimos lamemoria rom en ella se encuentra toda la informacion que el sistema necesita para poder funcionar correctamente, disque es un medio o soporte de almacenamiento de datos, o por otra cosa la cpu se ocupa del control y el proceso de datos de la computadora, nos enseñaron el funcionamiento del del teclado y el mause, la impresora, tan bien los tipos de escaner, o como la webcam es una camara web de internet o como los diapositivos de salidad el monitor, impresoras estas dos nos sirve para poder sacar una informacion impresa, nos enseñaron que era un monitor crt  las pantallas de estos monitores estan conformadamente por ters capas de fosforo uno por cada color basico(rojo, verde y azul) hablamos mucho sober las concecuencias de la tecnologia en el medio ambiente es que hay muche deforestacion, la contaminacion de los suelos, las aguas y la atmosfera.

efectos negativos de la tecnologia 

el calentamiento global

la contaminacion 

la deforestacion 

efectos positivos de la tecnologia 

hay mas desarrollo 

puede que haya mas trabajo 

mejor calidad de vida 

hay mas avances de la tecnologia 

ya que cuando va avansando la tecnologia las selvas, los bosques las plantas y los animales son los que sufren ya que mueren por la deforestacion de sus bosques de los bosques

         

       

 

   

Consulta practica

1. consultar las partes internas de la computadora y función, graficar tu respuesta

Tarjeta madre

Este es el componente principal de una PC, es quien integra a todos los demás componentes. Mediante ella, todos los componentes interactúan y se comunican para realizar procesos. Para decidir que tarjeta madre debemos elegir de acuerdo a nuestras necesidades, debemos de tomar en cuenta los siguientes aspectos:




Disco duro

Los discos duros se presentan recubiertos de una capa magnética delgada, habitualmente de óxido de hierro, y se dividen en unos círculos concéntricos cilindros (coincidentes con las pistas de los disquetes), que empiezan en la parte exterior del disco (primer cilindro) y terminan en la parte interior (último).

Asimismo estos cilindros se dividen en sectores, cuyo número esta determinado por el tipo de disco y su formato, siendo todos ellos de un tamaño fijo en cualquier disco.

Cilindros como sectores se identifican con una serie de números que se les asignan, empezando por el 1, pues el numero 0 de cada cilindro se reserva para propósitos de identificación mas que para almacenamiento de datos.

Estos, escritos/leídos en el disco, deben ajustarse al tamaño fijado del almacenamiento de los sectores. Habitualmente, los sistemas de disco duro contienen más de una unidad en su interior, por lo que el número de caras puede ser más de 2. Estas se identifican con un número, siendo el 0 para la primera.

En general su organización es igual a los disquetes. La capacidad del disco resulta de multiplicar el número de caras por el de pistas por cara y por el de sectores por pista, al total por el número de bytes por sector.Para escribir, la cabeza se sitúa sobre la celda a grabar y se hace pasar por ella un pulso de corriente, lo cual crea un campo magnético en la superficie. Dependiendo del sentido de la corriente, así será la polaridad de la celda. ara leer, se mide la corriente inducida por el campo magnético de la celda.

Es decir que al pasar sobre una zona detectará un campo magnético que según se encuentre magnetizada en un sentido u otro, indicará si en esa posición hay almacenado un 0 o un 1. En el caso de la escritura el proceso es el inverso, la cabeza recibe una corriente que provoca un campo magnético, el cual pone la posición sobre la que se encuentre la cabeza en 0 o en 1 dependiendo del valor del campo magnético provocado por dicha corriente.


Memoria RAM
 
La memoria principal o RAM, abreviatura del inglés Randon Access Memory, es el dispositivo donde se almacenan temporalmente tanto los datos como los programas que la CPU está procesando o va a procesar en un determinado momento. Por su función, es una amiga inseparable del microprocesador, con el cual se comunica a través de los buses de datos. Por ejemplo, cuando la CPU tiene que ejecutar un programa, primero lo coloca en la memoria y recién después lo empieza a ejecutar. lo mismo ocurre cuando necesita procesar una serie de datos; antes de poder procesarlos los tiene que llevar a la memoria principal. Esta clase de memoria es volátil, es decir que, cuando se corta la energía eléctrica, se borra toda la información que estuviera almacenada en ella. por su función, la cantidad de memoria RAM de que disponga una computadora es una factor muy importante; hay programas y juegos que requieren una gran cantidad de memoria para poder usarlos. otros andarán más rápido si el sistema cuenta con más memoria RAM.


La memoria Caché

Dentro de la memoria RAM existe una clase de memoria denominada Memoria Caché que tiene la característica de ser más rápida que las otras, permitiendo que el intercambio de información entre el procesador y la memoria principal sea a mayor velocidad.

 
Memoria de sólo lectura o ROM

Su nombre vienen del inglés Read Only Memory que significa Memoria de Solo Lectura ya que la información que contiene puede ser leída pero no modificada. En ella se encuentra toda la información que el sistema necesita para poder funcionar correctamente ya que los fabricantes guardan allí las instrucciones de arranque y el funcionamiento coordinado de la computadora. no son volátiles, pero se pueden deteriorar a causa de campos magnéticos demasiados potentes. Al encender nuestra computadora automáticamente comienza a funcionar la memoria ROM. por supuesto, aunque se apague, esta memoria no se borra. El BIOS de una PC (Basic Input Operative System) es una memoria ROM, pero con la facultad de configurarse según las características particulares de cada máquina. esta configuración se guarda en la zona de memoria RAM que posee este BIOS y se mantiene sin borrar cuando se apaga la PC gracias a una pila que hay en la placa principal. Cuando la pila se agota se borra la configuración provocando, en algunos equipos, que la máquina no arranque.



Unidad central de proceso o CPU

(conocida por sus siglas en inglés, CPU), circuito microscópico que interpreta y ejecuta instrucciones. La CPU se ocupa del control y el proceso de datos en las computadoras. Generalmente, la CPU es un microprocesador fabricado en un chip, un único trozo de silicio que contiene millones de componentes electrónicos. El microprocesador de la CPU está formado por una unidad aritmético-lógica que realiza cálculos y comparaciones, y toma decisiones lógicas (determina si una afirmación es cierta o falsa mediante las reglas del álgebra de Boole); por una serie de registros donde se almacena información temporalmente, y por una unidad de control que interpreta y ejecuta las instrucciones. Para aceptar órdenes del usuario, acceder a los datos y presentar los resultados, la CPU se comunica a través de un conjunto de circuitos o conexiones llamado bus. El bus conecta la CPU a los dispositivos de almacenamiento (por ejemplo, un disco duro), los dispositivos de entrada (por ejemplo, un teclado o un mouse) y los dispositivos de salida (por ejemplo, un monitor o una impresora).



Disquete

Un disco flexible o disquete (en lengua inglesa Floppy disk o diskette) es un medio o soporte de almacenamiento de datos formado por una pieza circular de material magnético, fina y flexible (de ahí su denominación) encerrada en una cubierta de plástico cuadrada o rectangular.
Los disquetes se leen y se escriben mediante un dispositivo llamado disquetera (o FDD, del inglés Floppy Disk Drive). Es un disco más pequeño que el CD, tanto en tamaño externo como en capacidad, que está encerrado en una funda de pasta que lo protege (como se ha dicho anteriormente). 
2. que es c.p.u

¿ Que es UCP o CPU ?

Unidad central de proceso o UCP (conocida por sus siglas en inglés, CPU), circuito microscópico que interpreta y ejecuta instrucciones. La CPU se ocupa del control y el proceso de datos en las computadoras. Generalmente, la CPU es un microprocesador fabricado en un chip, un único trozo de silicio que contiene millones de componentes electrónicos. El microprocesador de la CPU está formado por una unidad aritmético-lógica que realiza cálculos y comparaciones, y toma decisiones lógicas (determina si una afirmación es cierta o falsa mediante las reglas del álgebra de Boole); por una serie de registros donde se almacena información temporalmente, y por una unidad de control que interpreta y ejecuta las instrucciones. Para aceptar órdenes del usuario, acceder a los datos y presentar los resultados, la CPU se comunica a través de un conjunto de circuitos o conexiones llamado bus. El bus conecta la CPU a los dispositivos de almacenamiento (por ejemplo, un disco duro), los dispositivos de entrada (por ejemplo, un teclado o un mouse) y los dispositivos de salida (por ejemplo, un monitor o una impresora).

Funcionamiento de la CPU

Cuando se ejecuta un programa, el registro de la CPU, llamado contador de programa, lleva la cuenta de la siguiente instrucción, para garantizar que las instrucciones se ejecuten en la secuencia adecuada. La unidad de control de la CPU coordina y temporiza las funciones de la CPU, tras lo cual recupera la siguiente instrucción desde la memoria. En una secuencia típica, la CPU localiza la instrucción en el dispositivo de almacenamiento correspondiente. La instrucción viaja por el bus desde la memoria hasta la CPU, donde se almacena en el registro de instrucción. Entretanto, el contador de programa se incrementa en uno para prepararse para la siguiente instrucción. A continuación, la instrucción actual es analizada por un descodificador, que determina lo que hará la instrucción. Cualquier dato requerido por la instrucción es recuperado desde el dispositivo de almacenamiento correspondiente y se almacena en el registro de datos de la CPU. A continuación, la CPU ejecuta la instrucción, y los resultados se almacenan en otro registro o se copian en una dirección de memoria determinada.

 

3. que son dispositivos de entrega y salida en una computadora 

  • DISPOSITIVOS:

Los dispositivos son regímenes definibles, con sus variaciones y transformaciones. Presentan líneas de fuerza que atraviesan umbrales en funciónde los cuales son estéticos, científicos, políticos, etc. Cuando la fuerza en un dispositivo en lugar de entrar en relación lineal con otra fuerza, se vuelve sobre sí misma y se afecta, no se trata de saber ni de poder, sino de un proceso de individuación relativo a gruposo personas que se sustrae a las relaciones de fuerzas establecidas como saberes constituidos.

  • LOS DISPOSITIVOS DE ENTRADA/SALIDA:

Son aquellos que permiten la comunicaciónentre la computadora y el usuario.

  • DISPOSITIVOS DE ENTRADA:

Son aquellos que sirven para introducir datos a la computadora para su proceso. Los datos se leen de los dispositivos de entrada y se almacenan en la memoria central o interna. Los dispositivos de entrada convierten la información en señales eléctricas que se almacenan en la memoria central.

Los dispositivos de entrada típicos son los teclados, otros son: lápices ópticos, palancas de mando (joystick), CD-ROM, discos compactos (CD), etc. Hoy en día es muy frecuente que el usuario utilice un dispositivo de entrada llamado ratón que mueve un puntero electrónico sobre una pantalla que facilita la interacción usuario-máquina.

  • DISPOSITIVOS DE SALIDA:

Son los que permiten representar los resultados (salida) del proceso de datos. El dispositivo de salida típico es la pantalla o monitor. Otros dispositivos de salida son: impresoras (imprimen resultados en papel), trazadores gráficos (plotters), bocinas, entre otros...

TIPOS DE DISPOSITIVOS:

ENTRADA:

  1. Mouse:

La función principal del ratón es transmitir los movimientos de nuestra mano sobre una superficie plana hacia el ordenador. Allí, el software denominado driver se encarga realmente de transformarlo a un movimientodel puntero por la pantalla dependiendo de varios parámetros.

En el momento de activar el ratón, se asocia su posición con la del cursor en la pantalla. Si desplazamos sobre una superficie el ratón, el cursor seguirá dichos movimientos. Es casi imprescindible en aplicaciones dirigidas por menús o entornos gráficos, como por ejemplo Windows, ya que con un pulsador adicional en cualquier instante se pueden obtener en programalas coordenadas (x, y) donde se encuentra el cursor en la pantalla, seleccionando de esta forma una de las opciones de un menú.

Hay cuatro formas de realizar la transformación y por tanto cuatro tipos de ratones:

  • Mecánicos: Son los más utilizados por su sencillez y bajo coste. Se basan en una bola de silicona que gira en la parte inferior del ratón a medida que desplazábamos éste. Dicha bola hace contacto con dos rodillos, uno perpendicular al ratón y otro transversal, de forma que uno recoge los movimientos de la bola en sentido horizontal y el otro en sentido vertical

En cada extremo de los ejes donde están situados los rodillos, existe una pequeña rueda conocida como "codificador", que gira en tornoa cada rodillo. Estas ruedas poseen en su superficie, y a modo de radios, una serie de contactos de metal, que a medida que gira la rueda toca con dos pequeñas barras fijas conectadas al circuito integrado en el ratón.

Cada vez que se produce contacto entre el material conductor de la rueda y las barras, se origina una señal eléctrica. Así, el número de se señales indicará la cantidad de puntos que han pasado éstas, lo que implica que, a mayor número de señales, mayor distancia habrá recorrido el ratón. Tras convertir el movimiento en señales eléctricas, se enviaban al software del ordenador por medio del cable.


Figura. Bola y zonas de contacto con los rodillos

Los botones son simples interruptores. Debajo de cada uno de ellos se encuentra un microinterruptor que en estado de "reposo" interrumpe un pequeño circuito. En cuanto se ejerce una ligera presiónsobre estos, se activa el circuito, dejando pasar una señal eléctrica que será única en caso de que sólo se haga "clic" con el botón, o continua en caso de dejarlo pulsado.

Por último las señales se dan cita en el pequeño chip que gobierna el ratón, y son enviadas al ordenador a través del cable con los une. Allí el controlador del ratón decidirá, en función del desplazamiento vertical y horizontal detectado, el movimiento final que llevará el cursor. También será capaz de aumentar o disminuir ese movimiento, dependiendo de factores como la resolución que se le haya especificado al ratón.

Figura Esquema general de un ratón mecánico.

  • Los ratones opto-mecánicos trabajan según el mismo principio que los mecánicos, pero aquí los cilindros están conectados a codificadores ópticos que emplean pulsos luminosos al ordenador, en lugar de señales eléctricas. El modo de capturar el movimiento es distinto. Los tradicionales rodillos que giran una rueda radiada ahora pueden girar una rueda ranurada, de forma que un haz de luzlas atraviesa. De esta forma, el corte intermitente del haz de luz por la rueda es recogido en el otro lado por una célula fotoeléctrica que decide hacia donde gira el ratón y a que velocidad

Figura. Codificadores del ratón.

  • Los ratones de ruedas sustituyen la bola giratoria por unas ruedas de material plástico, perpendiculares entre sí, dirigiendo así a los codificadores directamente.
  • Los ratones ópticos carecen de bola y rodillos, y poseen unos foto-sensoreso sensores ópticos que detectan los cambios en los patrones de la superficie por la que se mueve el ratón. Antiguamente, estos ratones necesitaban una alfombrilla especial, pero actualmente no. Microsoft ha denominado a este sistemaIntelliEye en su ratón IntelliMouse y es capaz de explorar el escritorio 1500 veces por segundo, sobre multitud de superficies distintas como maderaplástico o tela. La ventaja de estos ratones estriba en su precisión y en la carencia de partes móviles, aunque son lógicamente algo más caros que el resto.

Una característica a tener en cuenta será la resolución, o sensibilidad mínima del sistema de seguimiento: en el momento en que el ratón detecte una variación en su posición, enviará las señales correspondientes al ordenador. La resolución se expresa en puntos por pulgada (ppp). Un ratón de 200 ppp podrá detectar cambios en la posición tan pequeños como 1/200 de pulgada, y así, por cada pulgada que se mueva el ratón, el cursor se desplazará 200 píxeles en la pantalla. El problema es que la relación entre la sensibilidad del movimiento y el movimiento en pantalla es de 1:1 (un desplazamiento equivalente a la sensibilidad mínima provoca un desplazamiento de un píxel en la pantalla); como consecuencia, cuanto mayor sea la resolución del monitor, mayor será el desplazamiento que habrá que imprimir al ratón para conseguir un desplazamiento equivalente en pantalla. Para solucionar este problema los fabricantes desarrollaron el seguimiento dinámico, que permite variar la relación anterior a 1: N, donde N > 1.

Una de las cosas que está cambiando es el medio de transmisión de los datos desde el ratón al ordenador. Se intenta acabar el cable que siempre conduce la información debido a las dificultades que añadía al movimiento. En la actualidad estos están siendo sustituidos por sistemas de infrarrojos o por ondas de radio(como incorpora el Cordless MouseMan Wheel de Logitech). Esta última técnica es mejor, pues los objetos de la mesa no interfieren la comunicación. Los dos botones o interruptores tradicionales han dejado evolucionado a multitud de botones, ruedas, y palancas que están dedicados a facilitar las tareas de trabajo con el ordenador, sobre todo cuando se trabaja con Internet. Hay modelos que no sólo tienen mandos que incorporan las funciones más comunes de los buscadores o navegadores, sino que tienen botones para memorizar las direcciones más visitadas por el usuario. Naturalmente, los fabricantes han aprovechado para poner botones fijos no configurables con direcciones a sus páginas.

La tecnologíaforce-feedback consiste en la transmisión por parte del ordenador de sensaciones a través del periférico. Podremos sentir diferentes sensaciones dependiendo de nuestras acciones. Por ejemplo, si nos salimos de la ventana activa, podremos notar que el ratón se opone a nuestros movimientos. Por supuesto, un campo también interesante para esto son los juegos. En los juegos de golf, se podría llegar a tener sensaciones distintas al golpear la bola dependiendo de si esta se encuentra en arena, hierba, etc... Lamentablemente, este tipo de ratones si se encuentra estrechamente unido a alfombrillas especiales.

Existen dos tipos de conexiones para el ratón: Serie y PS/2. En la práctica no hay ventaja de un tipo de puerto sobre otro.

  • Criterios para seleccionar un ratón

El primer criterio será la sencillez a menor número de botones y de mecanismos mayor será la sencillez de su uso. Aunque también para determinados trabajos en los que se precise utilizar de forma continuada el ratón será mejor elegir uno que facilite el trabajo a realizar y que además nos optimice el tiempo. Para ello son muy indicados sobre todos los ratones que poseen la ruedecilla central para que actúe de como scroll.

Otro criterio será el de ergonomía. El ratón deberá estar construido de modo que la mano pueda descansar naturalmente sobre él, alcanzando los dedos los pulsadores de forma có moda.

Para elegir un ratón USB, al igual que con el teclado, hay que tener instalado el sistema operativocon el suplemento USB o no funcionará. Un ratón USB tiene una ventaja. El ratón PS/2 consume una IRQ (normalmente la IRQ12) y si lo conectas al COM1/2, pierdes un puerto serie (que si no utilizas puedes anular en la BIOSde la placa base y recuperar una IRQ para otros dispositivos). Cierto que el puerto USB también consume una IRQ, pero si te posees HUB USB o tienes otro dispositivo USB (dos dispositivos en 2 puertos USB sin un HUB), con dos (o hasta 128 usando HUBs) dispositivos USB sólo consumes una IRQ, y si lo puedes conectar al puerto USB del teclado, no gastas una IRQ adicional ni el otro puerto USB.

  • Tipos de Mouse:
  • Mecánico: es una unidad de ingreso de datos equipada con uno o más botones y una pequeña esfera en su parte inferior, del tamaño de una mano y diseñado para trabajar sobre una tabla o mouse-pad ubicada al lado del teclado. Al mover el mouse la esfera rueda y un censor activa la acción.
  • Óptico: es el que emplea la luz para obtener sus coordenadas y se desplaza sobre una tabla que contiene una rejilla reflectante, colocada sobre el escritorio.
  • Marcas:

Genius, Microsoft, General Electric, Generico

  1. Teclado:

Es el dispositivo más común de entrada de datos. Se lo utiliza para introducir comandos, textos y números. Estrictamente hablando, es un dispositivo de entrada y de salida, ya que los LEDs también pueden ser controlados por la máquina.

  • Historia del teclado:

Cuando en 1867 Christopher Letham Sholes diseñó la máquina de escribir, la tecnología no estaba muy avanzada, y los primeros prototipos de la máquina de escribir se atascaban constantemente. Había entonces dos caminos para resolver el problema: hacer que la máquina funcione mejor, o que los mecanó grafos funcionen peor.

La disposición de las teclas se remonta a las primeras máquinasde escribir. Aquellas máquinas eran enteramente mecánicas. Al pulsar una letra en el teclado, se movía un pequeño martillo mecánico, que golpeaba el papel a través de una cinta impregnada en tinta. Al escribir con varios dedos de forma rápida, los martillos no tenían tiempo de volver a su sitio antes de que se moviesen los siguientes, de forma que se encallaban. Para que esto ocurriese lo menos posible, el diseñador del teclado QWERTY hizo una distribución de las letras de forma contraria a lo que hubiese sido lógico con base en la frecuencia con la que cada letra aparecía en un texto. De esta manera la pulsación era más lenta y los martillos se encallaban menos veces.

Cuando aparecieron las máquinas de escribir eléctricas, y después los ordenadores, con sus teclados también eléctricos, se consideró seriamente modificar la distribución de las letras en los teclados, colocando las letras más corrientes en la zona central. El nuevo teclado ya estaba diseñado y los fabricantes preparados para iniciar la fabricación. Sin embargo, el proyecto se canceló debido al temor de que los usuarios tuvieran excesivas incomodidades para habituarse al nuevo teclado, y que ello perjudicara la introducción de los ordenadores personales, que por aquel entonces se encontraban en pleno auge.

  • Funciones del teclado:

- Teclado alfanumérico: es un conjunto de 62 teclas entre las que se encuentran las letras, números, símbolos ortográficos, Enter, alt...etc.

- Teclado de Función: es un conjunto de 13 teclas entre las que se encuentran el ESC, tan utilizado en sistemas informáticos, más 12 teclas de función. Estas teclas suelen ser configurables pero por ejemplo existe un convenio para asignar la ayuda a F1.

- Teclado Numérico: se suele encontrar a la derecha del teclado alfanumérico y consta de los números así como de un Enter y los operadores numéricos de suma, resta,... etc.

- Teclado Especial: son las flechas de direccióny un conjunto de 9 teclas agrupadas en 2 grupos; uno de 6 (Inicio y fin entre otras) y otro de 3 con la tecla de impresión de pantalla entre ellas.

  • Tipos de Teclado:
  • De Membrana: Fueron los primeros que salieron y como su propio nombre indica presentan una membrana entre la tecla y el circuito que hace que la pulsación sea un poco más dura.
  • Mecánico: Estos nuevos teclados presentan otro sistema que hace que la pulsación sea menos traumática y más suave para el usuario.
  • Teclado para internet: El nuevo Internet Keyboard incorpora 10 nuevos botones de acceso directo, integrados en un teclado estándar de ergonómico diseñoque incluye un apoya manos. Los nuevos botones permiten desde abrir nuestro explorador Internet hasta ojear el correo electrónico. El software incluido, IntelliType Pro, posibilita la personalización de los botones para que sea el teclado el que trabaje como nosotros queramos que lo haga.
  • Teclados inalámbricos: Pueden fallar si están mal orientados, pero no existe diferencia con un teclado normal. En vez de enviar la señal mediante cable, lo hacen mediante infrarrojos, y la controladora no reside en el propio teclado, sino en el receptor que se conecta al conector de teclado en el PC. Si queremos conectar a nuestro equipo un teclado USB, primero debemos tener una BIOS que lo soporte y en segundo lugar debemos tener instalado el sistema operativo con el "Suplemento USB". Un buen teclado USB debe tener en su parte posterior al menos un conector USB adicional para poderlo aprovechar como HUB y poder conectar a él otros dispositivos USB como ratones, altavoces, etc
  • Marcas:

-Turbo Tecn

-Microsoft

-Genius

-Benq

-Acer

  1. Scanner:

Ateniéndonos a los criterios de la Real Academia de la Lengua, famosa por la genial introducción del término cederrón para denominar al CD-ROM, probablemente nada; para el resto de comunes mortales, digamos que es la palabra que se utiliza en informática para designar a un aparato digitalizador de imagen.

Por digitalizar se entiende la operación de transformar algo analógico (algo físico, real, de precisión infinita) en algo digital (un conjunto finito y de precisión determinada de unidades lógicas denominadas bits). En fin, que dejándonos de tanto formalismo sintáctico, en el caso que nos ocupa se trata de coger una imagen ( fotografía, dibujo o texto) y convertirla a un formato que podamos almacenar y modificar con el ordenador. Realmente un escáner no es ni más ni menos que los ojos del ordenador.

  • Cómo funciona

El proceso de captación de una imagen resulta casi idéntico para cualquier escáner: se ilumina la imagen con un foco de luz, se conduce mediante espejos la luz reflejada hacia un dispositivo denominado CCD que transforma la luz en señales eléctricas, se transforma dichas señales eléctricas a formato digital en un DAC (conversor analógico-digital) y se transmite el caudal de bits resultante al ordenador.

El CCD (Charge Coupled Device, dispositivo acoplado por carga -eléctrica-) es el elemento fundamental de todo escáner, independientemente de su forma, tamaño o mecánica. Consiste en un elemento electrónico que reacciona ante la luz, transmitiendo más o menos electricidad según sea la intensidad y el color de la luz que recibe; es un auténtico ojo electrónico. Hoy en día es bastante común, puede que usted posea uno sin saberlo: en su cámara de vídeo, en su fax, en su cámara de fotos digital...

La calidadfinal del escaneado dependerá fundamentalmente de la calidad del CCD; los demás elementos podrán hacer un trabajo mejor o peor, pero si la imagen no es captada con fidelidad cualquier operación posterior no podrá arreglar el problema. Teniendo en cuenta lo anterior, también debemos tener en cuenta la calidad del DAC, puesto que de nada sirve captar la luz con enorme precisión si perdemos mucha de esa información al transformar el caudal eléctrico a bits.

Por este motivo se suele decir que son preferibles los escáneres de marcasde prestigio como Nikon o Kodak a otros con una mayor resolución teórica, pero con CCDs que no captan con fidelidad los colores o DACs que no aprovechan bien la señal eléctrica, dando resultados más pobres, más planos.

  • La resolución

No podemos continuar la explicación sin definir este término, uno de los parámetros más utilizados (a veces incluso demasiado) a la hora de determinar la calidad de un escáner. La resolución (medida en ppp, puntos por pulgada) puede definirse como el número de puntos individuales de una imagen que es capaz de captar un escáner... aunque en realidad no es algo tan sencillo.

La resolución así definida sería la resolución óptica o real del escáner. Así, cuando hablamos de un escáner con resolución de "300x600 ppp" nos estamos refiriendo a que en cada línea horizontal de una pulgada de largo (2,54 cm) puede captar 300 puntos individuales, mientras que en vertical llega hasta los 600 puntos; como en este caso, generalmente la resolución horizontal y la vertical no coinciden, siendo mayor (típicamente el doble) la vertical.

Esta resolución óptica viene dada por el CCD y es la más importante, ya que implica los límites físicos de calidad que podemos conseguir con el escáner. Por ello, es un métodocomercial muy típico comentar sólo el mayor de los dos valores, describiendo como "un escáner de 600 ppp" a un aparato de 300x600 ppp o "un escáner de 1.200 ppp" a un aparato de 600x1.200 ppp; téngalo en cuenta, la diferencia es obtener o no el cuádruple de puntos.

Tenemos también la resolución interpolada; consiste en superar los límites que impone la resolución óptica (300x600 ppp, por ejemplo) mediante la estimación matemática de cuáles podrían ser los valoresde los puntos que añadimos por software a la imagen. Por ejemplo, si el escáner capta físicamente dos puntos contiguos, uno blanco y otro negro, supondrá que de haber podido captar un punto extra entre ambos sería de algún tono de gris. De esta forma podemos llegar a resoluciones absurdamente altas, de hasta 9.600x9.600 ppp, aunque en realidad no obtenemos más información real que la que proporciona la resolución óptica máxima del aparato. Evidentemente este valor es el que más gusta a los anunciantes de escáneres...

Por último está la propia resolución de escaneado, aquella que seleccionamos para captar una imagen concreta. Su valor irá desde un cierto mínimo (típicamente unos 75 ppp) hasta el máximo de la resolución interpolada. En este caso el valor es siempre idéntico para la resolución horizontal y la vertical, ya que si no la imagen tendría las dimensiones deformadas.

  • Los colores y los bits

Al hablar de imágenes, digitales o no, a nadie se le escapa la importancia que tiene el color. Una fotografía en color resulta mucho más agradable de ver que otra en tonos grises; un gráfico acertadamente coloreado resulta mucho más interesante que otro en blanco y negro; incluso un texto en el que los epígrafes o las conclusiones tengan un color destacado resulta menos monótono e invita a su lectura.

Sin embargo, digitalizar los infinitos matices que puede haber en una foto cualquiera no es un proceso sencillo. Hasta no hace mucho, los escáneres captaban las imágenes únicamente en blanco y negro o, como mucho, con un número muy limitado de matices de gris, entre 16 y 256. Posteriormente aparecieron escáneres que podían captar color, aunque el proceso requería tres pasadas por encima de la imagen, una para cada color primario (rojo, azul y verde). Hoy en día la práctica totalidad de los escáneres captan hasta 16,7 millones de colores distintos en una única pasada, e incluso algunos llegan hasta los 68.719 millones de colores.

Para entender cómo se llega a estas apabullantes cifras debemos explicar cómo asignan los ordenadores los colores a las imágenes. En todos los ordenadores se utiliza lo que se denomina sistema binario, que es un sistema matemático en el cual la unidad superior no es el 10 como en el sistema decimal al que estamos acostumbrados, sino el 2. Un bit cualquiera puede por tanto tomar 2 valores, que pueden representar colores (blanco y negro, por ejemplo); si en vez de un bit tenemos 8, los posibles valores son 2 elevado a 8 = 256 colores; si son 16 bits, 2 elevado a 16 = 65.536 colores; si son 24 bits, 2 elevado a 24 = 16.777216 colores; etc, etc.

Por tanto, "una imagen a 24 bits de color" es una imagen en la cual cada punto puede tener hasta 16,7 millones de colores distintos; esta cantidad de colores se considera suficiente para casi todos los usos normales de una imagen, por lo que se le suele denominar color real. La casi totalidad de los escáneres actuales capturan las imágenes con 24 bits, pero la tendencia actual consiste en escanear incluso con más bits, 30 ó incluso 36, de tal forma que se capte un espectro de colores absolutamente fiel al real; sin embargo, casi siempre se reduce posteriormente esta profundidad de color a 24 bits para mantener un tamaño de memoria razonable, pero la calidad final sigue siendo muy alta ya que sólo se eliminan los datos de color más redundantes.

 ¿Cuánto ocupa una imagen?

 

Tipo de original

Destino

Método escaneado

Tamaño en RAM

Fotografía 10x15 cm

Pantalla

75 ppp / 24 bits

0,4 MB

Impresora B/N

300 ppp / 8 bits

2 MB

Impresora color

300 ppp / 24 bits

6 MB

Texto o dibujo en blanco y negro tamaño DIN-A4

Pantalla

75 ppp / 1 bit

66 KB

Impresora

300 ppp / 8 bit

8 MB

OCR

300 ppp / 1 bit

1 MB

Foto DIN-A4 en color

Pantalla

75 ppp / 24 bits

1,6 MB

Impresora

300 ppp / 24 bits

25 MB

Tipos de Escáner:

  • Flatbed: significa que el dispositivo de barrido se desplaza a lo largo de un documento fijo. En este tipo de escáneres, como las fotocopiadoras de oficina, los objetos se colocan boca abajo sobre una superficie lisa de cristal y son barridos por un mecanismo que pasa por debajo de ellos. Otro tipo de escáner flatbed utiliza un elemento de barrido instalado en una carcasa fija encima del documento.
  • Escáner de mano: también llamado hand-held, porque el usuario sujeta el escáner con la mano y lo desplaza sobre el documento. Estos escáneres tienen la ventaja de ser relativamente baratos, pero resultan algo limitados porque no pueden leer documentos con una anchura mayor a 12 o 15 centímetros.
  • Lector de código de barras: dispositivo que mediante un haz de láserlee dibujos formados por barras y espacios paralelos, que codifica información mediante anchuras relativas de estos elementos. Los códigos de barras representan datos en una forma legible por el ordenador, y son uno de los medios más eficientes para la captación automática de datos.

Marcas:

Acer, Cannon, Benq, Hewlett Packard (HP), AGFFA

D) webcam

Una cámara web en la simple definición, es una cámara que esta simplemente conectada a la redo INTERNET. Como te puede imaginar tomando esta definición, las cámaras Web pueden tomar diferentes formas y usos.

En la Webcam radica un concepto sencillo; tenga en funcionamiento continuo una cámara de video, obtenga un programa para captar un imagen en un archivo cada determinados segundos o minutos, y cargue el archivo de la imagen en un servidorWeb para desplegarla en una página Web.

Unos de los tipos más comunes de cámaras personales que estan conectadas a computadoras del hogar, funcionando con la ayuda de algunos programasusuarios comparten una imagen en movimiento con otros. Dependiendo del usuario y de los programas, estas imagines pueden ser publicadas disponibles en el internet por vía de directorios especificados, o algunos disponibles a los amigos de usuarios que ahora poseen la propia dirección para conectarse. Esas cámaras son típicamente solo cuando los usuarios de las computadoras están encendidos y conectados a Internet. Con el apoyo de un modem DSL y Cable, usuarios viven sus computadoras en más y mejores observadores de web, esto tiene otras complicaciones incluyendo velocidad y seguridad.

Otros tipos comunes de cámara web son las que se basa en una escena en particular, monumento, u otro lugar de interés de visitantes potenciales. Más de estas cámaras estan disponibles 24/7. Puedes tener muchos pequeños conteos de pinturas (imágenes) detrás de otros muchos más excitantes en el tiempo del día, si este es el caso.

Tipos de Cámaras:

  • Cámara de fotos digital: Toma fotos con calidad digital, casi todas incorporan una pantalla LCD (Liquid Cristal Display) donde se puede visualizar la imagen obtenida. Tiene una pequeña memoria donde almacena fotos para después transmitirlas a un ordenador.
  • Cámara de video: Graba videos como si de una cámara normal se tratara, pero las ventajas que ofrece en estar en formato digital, que es mucho mejor la imagen, tiene una pantalla LCD por la que ves simultáneamente la imagen mientras grabas. Se conecta al PC y este recoge el video que has grabado, para poder retocarlo posteriormente con el software adecuado.
  • Marcas:

Creative, Genius, Olimpus, General Electric, Canon.

  1. Dispositivo señalador que permite sostener sobre la pantalla (fotosensible) un lápiz que está conectado al ordenador con un mecanismo de resorte en la punta o en un botón lateral, mediante el cual se puede seleccionar información visualizada en la pantalla. Cuando se dispone de información desplegada, con el lápiz óptico se puede escoger una opción entre las diferentes alternativas, presionándolo sobre la ventana respectiva o presionando el botón lateral, permitiendo de ese modo que se proyecte un rayo láser desde el lápiz hacia la pantalla fotosensible.

    El lápiz contiene sensores luminosos y envía una señal a la computadora cada vez que registra una luz, por ejemplo al tocar la pantalla cuando los píxeles no negros que se encuentran bajo la punta del lápiz son refrescados por el haz de electrones de la pantalla.

    La pantalla de la computadora no se ilumina en su totalidad al mismo tiempo, sino que el haz de electrones que ilumina los píxeles los recorre línea por línea, todas en un espacio de 1/50 de segundo. Detectando el momento en que el haz de electrones pasa bajo la punta del lápiz óptico, el ordenador puede determinar la posición del lápiz en la pantalla. El lápiz óptico no requiere una pantalla ni un recubrimiento especiales como puede ser el caso de una pantalla táctil, pero tiene la desventaja de que sostener el lápiz contra la pantalla durante periodos largos de tiempo llega a cansar al usuario.

  2. Lápiz Óptico:
  3. Joystick:

Palanca que se mueve apoyada en una base. Se trata, como el ratón, de un manejador de cursor. Consta de una palanca con una rótula en un extremo, que permite efectuar rotaciones según dos ejes perpendiculares. La orientación de la palanca es detectada por dos medidores angulares perpendiculares, siendo enviada esta información al ordenador. Un programa adecuado convertirá los ángulos de orientación de la palanca en desplazamiento del cursor sobre la misma.

Principalmente existen dos diferentes tipos de joystick: los analógicos y los digitales. Para la construcción de uno analógico se necesitan dos potenciómetros, uno para la dirección X y otro para la dirección Y, que dependiendo de la posición de la palanca de control producen un cambio en la tensión a controlar. Contienen además un convertidor tensión / frecuencia que proporciona los pulsos que se mandan por el puerto según la señal analógica de los potenciómetros. Los digitales no contienen elementos analógicos para obtener las señales de control, sino que los movimientos son definidos por el software de control que incluirá el dispositivo en cuestión.

Sistema de conexión

Van conectados al puerto juegos de la placa, al de la tarjeta de sonido, al puerto o puertos de una tarjeta de juegos, o eventualmente, al puerto serie o paralelo. Aunque la opción del puerto de la tarjeta de sonido es con mucho la más utilizada por ahorro de recursos.

Tecnología

Aquí dependiendo del tipo de joystick que estemos hablando (palanca, joypad, volante, etc) la tecnología utilizada es variopinta. A pesar de ello es útil optar por mandos robustos y que ofrezcan buen soporte de software. Los basados en tecnología digital son ideales para los que requieran precisión.

Muchos joystick permiten de forma sencilla y simplemente mediante el uso de un cable especial (en forma de Y), la utilización de dos dispositivos simultáneos.

Posibles problemas: Lo más frecuente son los provenientes de la mala configuración del software. Estos dispositivos necesitan ser instalados y calibrados mediante los programas incluidos antes de poder ser utilizados.

Figura 2.16. Diagrama de un joystick analógico

Tipos de Joysticks:

  • Pads. Se componen de una carcasa de plástico con un mando en forma de cruz para las direcciones y unos botones para las acciones. El control se hace de forma digital: es decir, o pulsas o no pulsas.
  • Joystick clásico. Una carcasa de plástico con una palanca con botones de disparo, imitando a las de los aviones. El control en estos joysticks suele ser analógico: cuánto más inclinas la palanca, más rápido responde el juego. Especialmente recomendados para simuladores de vuelo.
  • Volantes y pedales. Para juegos de coches.

También hay joysticks 3D, con procesadorincorporado (para responder a tus movimientos) e incluso los hay que dan sacudidas y tal cuando te pegan un tiro.

Marcas: Genius, Microsoft...

Dispositivos de salida

  1. Monitor o Pantalla:

Es el dispositivo en el que se muestran las imágenes generadas por el adaptador de vídeo del ordenador o computadora. El término monitor se refiere normalmente a la pantalla de vídeo y su carcasa. El monitor se conecta al adaptador de vídeo mediante un cable. Evidentemente, es la pantalla en la que se ve la información suministrada por el ordenador. En el caso más habitual se trata de un aparato basado en un tubo de rayos catódicos (CRT) como el de los televisores, mientras que en los portátiles es una pantalla plana de cristal líquido (LCD).

  • Adaptador: suele tratarse de una placa de circuito impreso (también llamada tarjeta de interfaz) que permite que el ordenador o computadora utilice un periférico para el cual todavía carece de las conexiones o placas de circuito necesarias. Por lo general, los adaptadores se emplean para permitir la ampliación del sistema al hardwarenuevo o diferente. En la mayoría de los casos, es un término que se emplea en vídeo, como en los casos de Adaptador de Vídeo Monocromo (MDA), Adaptador para Gráficos Color (CGA) y Adaptador de Gráficos Mejorado (EGA). Es común que una única tarjeta adaptadora contenga más de un adaptador, es decir que maneje más de un elemento de hardware.
  • Monitor analógico es un monitor visual capaz de presentar una gama continua (un número infinito) de colores o tonalidades de gris, a diferencia de un monitor digital, que sólo es capaz de presentar un número finito de colores. Un monitor color, a diferencia del monocromo, tiene una pantalla revestida internamente con trifósforo rojo, verde y azul dispuesto en bandas o configuraciones. Para iluminar el trifósforo y generar un punto de color, este monitor suele incluir también tres cañones de electrones, en este caso uno para cada color primario. Para crear colores como el amarillo, el rosado o el anaranjado, los tres colores primarios se mezclan en diversos grados.
  • Monitor digital es un monitor de vídeo capaz de presentar sólo un número fijo de colores o tonalidades de gris.
  • Monitor monocromo es un monitor que muestra las imágenes en un solo color: negro sobre blanco o ámbar o verde sobre negro. El término se aplica también a los monitoresque sólo muestran distintos niveles de gris. Se considera que los monitores monocromos de alta calidad son generalmente más nítidos y más legibles que los monitores de color con una resolución equivalente.

El número de puntos que puede representar el monitor por pantalla, tanto en horizontal como en vertical, se denomina resolución. Cuanto mayor sea la resolución del monitor mejor será la calidad de la imagen en pantalla y ésta debe estar en concordancia con el tamaño del monitor, por lo que en la actualidad no se recomienda un monitor menor de 17" ó 15".

El parámetro que mide la nitidez de la imagen se le denomina tamaño del punto (dot pitch) y mide la distancia entre dos puntos del mismo color. El mínimo exigible en la actualidad es 0,28 mm, no debiéndose admitir nada superior, aunque lo ideal sería de 0,25 mm (o menor). La frecuencia de los monitores es el denominado refresco de pantalla y se mide en Hz (hertzios), que serían equivalentes a los fotogramas por segundo de una película. Realmente quien proporciona estos refrescos es la tarjeta gráfica que tengamos instalada en nuestro ordenador.

Por lo que respecta a los ordenadores portátiles usan pantallas de cristal líquido (LCD). Suele haber de dos tipos: Dual Scan (DSTN) y de MatrizActiva (TFT), que tiene una visualización mucho mejor que la primera.

Tipo del monitor

Resolución en pixels

Número de colores

CGA

320 x 200

4

EGA

640 x 350

16

VGA

640 x 480

320 x 200

16

256

Súper VGA

800 x 600

1024 x 768

256

256

XGA

1024 x 768

65536

Marcas: Philips, Sony, Samsung, Microsoft, Apple…

  1. Impresoras:

Como indica su nombre, la impresoraes el periférico que el ordenador utiliza para presentar información impresa en papel. Las primeras impresoras nacieron muchos años antes que el PC e incluso antes que los monitores, siendo durante años el método más usual para presentar los resultados de los cálculos en aquellos primitivos ordenadores, todo un avance respecto a las tarjetas y cintas perforadas que se usaban hasta entonces.

Aunque en nada se parecen las modernas impresoras a sus antepasadas de aquellos tiempos, no hay duda de que igual que hubo impresoras antes que PCs, las habrá después de éstos, aunque se basen en tecnologías que aún no han sido siquiera inventadas. Resulta muy improbable que los seres humanos abandonemos totalmente el papel por una fría pantalla de ordenador.

 Generalidades y definiciones

Antes de adentrarnos en este complejo mundo de las impresoras, vamos a exponer algunos de los conceptos básicos sobre las mismas.

Velocidad

La velocidad de una impresora se suele medir con dos parámetros:

  • ppm: páginas por minuto que es capaz de imprimir;
  • cps: caracteres (letras) por segundo que es capaz de imprimir.

Actualmente se usa casi exclusivamente el valor de ppm, mientras que el de cps se reserva para las pocas impresoras matriciales que aún se fabrican. De cualquier modo, los fabricantes siempre calculan ambos parámetros de forma totalmente engañosa; por ejemplo, cuando se dice que una impresora de tinta llega a 7 páginas por minuto no se nos advierte de que son páginas con como mucho un 5% de superficie impresa, en la calidad más baja, sin gráficos y descontando el tiempo de cálculo del ordenador.

 Resolución

Probablemente sea el parámetro que mejor define a una impresora. La resolución es la mejor o peor calidad de imagen que se puede obtener con la impresora, medida en número de puntos individuales que es capaz de dibujar una impresora.

Se habla generalmente de ppp, puntos por pulgada (cuadrada) que imprime una impresora. Así, cuando hablamos de una impresora con resolución de "600x300 ppp" nos estamos refiriendo a que en cada línea horizontal de una pulgada de largo (2,54 cm) puede situar 600 puntos individuales, mientras que en vertical llega hasta los 300 puntos. Si sólo aparece una cifra ("600 ppp", por ejemplo) suele significar que la resolución horizontal es igual que la vertical.

  • El buffer de memoria

Es una pequeña cantidad de memoria que tienen todas las impresoras modernas para almacenar parte de la información que les va proporcionando el ordenador.

De esta forma el ordenador, sensiblemente más rápido que la impresora, no tiene que estar esperándola continuamente y puede pasar antes a otras tareas mientras termina la impresora su trabajo. Evidentemente, cuanto mayor sea el buffer más rápido y cómodo será el proceso de impresión, por lo que algunas impresoras llegan a tener hasta 256 Kb de buffer (en impresoras muy profesionales, incluso varios MB).

  • El interfaz o conector

Las impresoras se conectan al PC casi exclusivamente mediante el puerto paralelo, que en muchos sistemas operativos se denomina LPT1 (LPT2 en el caso del segundo puerto paralelo, si existiera más de uno). Como el puerto paralelo original no era demasiado rápido, en la actualidad se utilizan puertos más avanzados como el ECP o el EPP, que son más rápidos y añaden bidireccionalidad a la comunicación (es decir, que la impresora puede "hablarle" al PC, lo que antiguamente era imposible) al tiempo que mantienen la compatibilidad con el antiguo estándar. El método de trabajo del puerto paralelo (estándar, ECP, EPP...) se suele seleccionar en la BIOS del ordenador; para saber cómo hacerlo.

Otras formas menos comunes de conectar una impresora es mediante el puerto serie (el que utilizan los módems externos y muchos ratones; resulta bastante lento), mediante un conector USB (rápido y sencillo, aunque con pocas ventajas frente al puerto paralelo), mediante un dispositivo de infrarrojos (muy útil en el caso de portátiles) o directamente conectados a una red (y no a un ordenador conectado a la misma) en el caso de grandes impresoras para grupos.

  • Impresoras GDI o Win-impresoras

GDI son las siglas de Graphical Device Interface, un tipo de tecnología propia de Windows por la cual se pueden fabricar impresoras que cargan parte del trabajo que deberían realizar al ordenador al que están conectadas; por ejemplo, pueden carecer de memoria propia a base de utilizar la RAM del ordenador. Gracias a este sistema se ahorran diversos componentes electrónicos en la fabricación de la impresora, lo que repercute en una bajada de su precio.

Las desventajas de estas impresoras son dos: primeramente, dependen de la potencia del ordenador al que están conectadas, que deberá ser como poco un Pentium rápido con una cantidad generosa de RAM; y además, sólo funcionan en Windows.

Una impresora GDI será siempre un poco más lenta que el modelo equivalente "clásico" (salvo que se tenga un ordenador potente), aparte de cargar bastante al sistema operativo.

  • Tipos de impresoras

Si queremos clasificar los diversos tipos de impresoras que existen, el método más lógico es hacerlo atendiendo a su tecnología de impresión, es decir, al método que emplean para imprimir en el papel, e incluir en dicha clasificación como casos particulares otras consideraciones como el uso de color, su velocidad, etc. Eso nos lleva a los tres tipos clásicos: matriciales, de tinta y láser.

Impresoras de impacto (matriciales)

Fueron las primeras que surgieron en el mercado. Se las denomina "de impacto" porque imprimen mediante el impacto de unas pequeñas piezas (la matriz de impresión) sobre una cinta impregnada en tinta, la cual suele ser fuente de muchos problemas si su calidad no es la que sería deseable.

Según cómo sea el cabezal de impresión, se dividen en dos grupos principales: de margarita y de agujas. Las de margarita incorporan una bola metálica en la que están en relieve las diversas letras y símbolos a imprimir; la bola pivota sobre un soporte móvil y golpea a la cinta de tinta, con lo que se imprime la letra correspondiente. El método es absolutamente el mismo que se usa en muchas máquinas de escribir eléctricas, lo único que las diferencia es la carencia de teclado.

Las impresoras de margarita y otros métodos que usan tipos fijos de letra están en completo desuso debido a que sólo son capaces de escribir texto; además, para cambiar de tipo o tamaño de letra deberíamos cambiar la matriz de impresión (la bola) cada vez. Por otra parte, la calidad del texto y la velocidad son muy altas, además de que permiten obtener copias múltiples en papel de autocopia o papel carbón.

Las impresoras de agujas, muchas veces denominadas simplemente matriciales, tienen una matriz de pequeñas agujas que impactan en el papel formando la imagen deseada; cuantas más agujas posea el cabezal de impresión mayor será la resolución, que suele estar entre 150 y 300 ppp, siendo casi imposible superar esta última cifra.

Aunque la resolución no sea muy alta es posible obtener gráficos de cierta calidad, si bien en blanco y negro, no en color. El uso de color implica la utilización de varias cintas más anchas, además de ser casi imposible conseguir una gama realista de colores, más allá de los más básicos.

Al ser impresoras de impacto pueden obtener copias múltiples, lo que las hace especialmente útiles en oficinas o comercios para la realización de listados, facturas, albaranes y demás documentos. Su velocidad en texto es de las más elevadas, aunque a costa de producir un ruidociertamente elevado, que en ocasiones llega a ser molesto. Resulta muy común encontrarlas con alimentadores para papel continuo, lo que sólo ocurre con algunas impresoras de tinta de precio elevado.

En general, las impresoras matriciales de agujas se posicionan como impresoras de precio reducido, calidad media-baja, escaso mantenimiento y alta capacidad de impresión. Entre los pocos fabricantes que quedan de estas impresoras destaca Epson, con un enorme catálogo con opciones y precios para todos los gustos.

  • Impresoras de tinta

Por supuesto, las impresoras matriciales utilizan tinta, pero cuando nos referimos a impresora de tinta nos solemos referir a aquéllas en las que la tinta se encuentra en forma más o menos líquida, no impregnando una cinta como en las matriciales.

La tinta suele ser impulsada hacia el papel por unos mecanismos que se denominan inyectores, mediante la aplicación de una carga eléctrica que hace saltar una minúscula gota de tinta por cada inyector, sin necesidad de impacto. De todas formas, los entresijos últimos de este proceso varían de una a otra marca de impresoras (por ejemplo, Canon emplea en exclusiva lo que denomina "inyección por burbuja") y no son realmente significativos a la hora de adquirir una u otra impresora.

Estas impresoras se destacan por la sencilla utilización del color. La resolución de estas impresoras es en teoría bastante elevada, hasta de 1.440 ppp, pero en realidad la colocación de los puntos de tinta sobre el papel resulta bastante deficiente, por lo que no es raro encontrar que el resultado de una impresora láser de 300 ppp sea mucho mejor que el de una de tinta del doble de resolución. Por otra parte, suelen existir papeles especiales, mucho más caros que los clásicos folios de papelería, para alcanzar resultados óptimos a la máxima resolución o una gama de colores más viva y realista.

El principal destinatario de este tipo de impresoras es el usuario doméstico, además del oficinista que no necesita trabajar con papel continuo ni con copias múltiples pero sí ocasionalmente con color (logotipos, gráficos, pequeñas imágenes...) con una calidad aceptable. Fabricantes existen decenas, desde los clásicos contendientes Epson y Hewlett-Packard (hp) hasta otros de mucho menor volumen de ventas pero que no desmerecen nada, como son Canon, Tektronik, Lexmark, Oki...

Una nota sobre los cartuchos de tinta: son relativamente caros, debido a que generalmente no sólo contienen la tinta, sino parte o la totalidad del cabezal de impresión; este sistema asegura que el cabezal siempre está en buen estado, pero encarece el precio. Existen decenas de sistemas de recarga de cartuchos para rellenar el cartucho aprovechando el cabezal, pero en el 99% de los casos son un engorro y se pone todo perdido de tinta.

  • Impresoras láser

Son las de mayor calidad del mercado, si entendemos por calidad la resolución sobre papel normal que se puede obtener, unos 600 ppp reales. En ellas la impresión se consigue mediante un láser que va dibujando la imagen electrostáticamente en un elemento llamado tambor que va girando hasta impregnarse de un polvo muy fino llamado tóner (como el de fotocopiadoras) que se le adhiere debido a la carga eléctrica. Por último, el tambor sigue girando y se encuentra con la hoja, en la cual imprime el tóner que formará la imagen definitiva.

El único problema de importancia de las impresoras láser es que sólo imprimen en blanco y negro. En realidad, sí existen impresoras láser de color, que dan unos resultados bastante buenos, pero su precio es absolutamente desorbitado.

Los láser son muy resistentes, mucho más rápidas y mucho más silenciosas que las impresoras matriciales o de tinta, y aunque la inversióninicial en una láser es mayor que en una de las otras, el tóner sale más barato a la larga que los cartuchos de tinta, por lo que a la larga se recupera la inversión. Por todo ello, los láser son idóneas para entornos de oficina con una intensa actividad de impresión, donde son más importantes la velocidad, la calidad y el escaso coste de mantenimiento que el color o la inversión inicial.

  • Impresoras para fotos

Constituyen una categoría de reciente aparición; usan métodos avanzados como la sublimación o las ceras o tintas sólidas, que garantizan una pureza de color excepcional, si bien con un coste relativamente elevado en cuanto a consumibles y una velocidad baja.

La calidad de estas impresoras suele ser tal, que muchas veces el resultado es indistinguible de una copia fotográfica tradicional, incluso usando resoluciones relativamente bajas como 200 ppp. Sin embargo, son más bien caras y los formatos de impresión no suelen exceder el clásico 10x15 cm, ya que cuando lo hacen los precios suben vertiginosamente y nos encontramos ante impresoras más apropiadas para pruebas de imprenta y autoedición.

  • Impresoras de gran formato

Resulta un calificativo tan bueno como cualquier otro para definir a las impresoras, casi exclusivamente de tinta, que imprimen en formatos hasta el A2 (42x59,4 cm). Son impresoras que asocian las ventajas de las impresoras de tinta en cuanto a velocidad, color y resolución aceptables junto a un precio bastante ajustado.

Se utilizan para realizar carteles o pósters, pequeños planos o pruebas de planos grandes, así como cualquier tarea para la que sea apropiada una impresora de tinta de menor formato: cartas, informes, gráficos... Hasta hace poco sólo existían un par de modelos, ahora las hay de Epson, Canon, HP...

  • Impresoras para grupos

Son impresoras de gran capacidad, preparadas para funcionar en una red incluso sin depender de un ordenador de la misma. Suelen ser impresoras láser, en ocasiones con soporte para color, con bandejas para 500 hojas o más, velocidades de más de 12 ppm (reales!!) y memoria por encima de 6 MB. Últimamente se tiende a que tengan funciones de fotocopiadora o capacidad para realizar pequeñas tiradas sin necesidad de emplear una fotocopiadora, e incluso clasifican y encuadernan.

 

Uso

Impresora a utilizar

Características

Textos, copias múltiples, listados, facturas

Matricial

Baratas, bajo mantenimiento, poca resolución

Textos y gráficos en blanco y negro y color

De tinta

Baratas, consumibles algo caros, resolución aceptable

Láser color

Muy caras, muy rápidas, alta resolución; para grandes cargas de trabajo

Textos y gráficos en blanco y negro

Láser blanco y negro

Mayor inversión inicial, menor mantenimiento, alta resolución

Formatos grandes, posters, carteles, planos

De tinta gran formato

Baratas, formatos algo reducidos para planos (A3, A2)

Plotter

Caros, específicos para planos, formatos A1 o A0

Fotografías

Sublimación, ceras sólidas o similar

Caras en consumibles, formato reducido, algo lentas, gran calidad, muy caras en formatos grandes

Grandes cargas de trabajo

Láser color o láser blanco y negro de alta gama

Caras, bajo mantenimiento, alta velocidad y resolución

 

4. Describa cinco unidades lógicas de almacenamiento

Arquitectura

Modelo básico de la arquitectura de von Neumann, en la que se basan todos los ordenadores modernos

A pesar de que las tecnologías empleadas en las computadoras digitales han cambiado mucho desde que aparecieron los primeros modelos en los años 40, la mayoría todavía utiliza la Arquitectura de von Neumann, publicada a principios de los años 1940 por John von Neumann, que otros autores atribuyen a John Presper Eckert y John William Mauchly.

La arquitectura de Von Neumann describe una computadora con 4 secciones principales: la unidad aritmético lógica (ALU por sus siglas del inglés: Arithmetic Logic Unit), la unidad de control, la memoria central, y los dispositivos de entrada y salida (E/S). Estas partes están interconectadas por canales de conductores denominados buses:

  • La memoria es una secuencia de celdas de almacenamiento numeradas, donde cada una es un bit o unidad de información. La instrucción es la información necesaria para realizar lo que se desea con el computador. Las «celdas» contienen datos que se necesitan para llevar a cabo las instrucciones, con el computador. El número de celdas varían mucho de computador a computador, y las tecnologías empleadas para la memoria han cambiado bastante; van desde los relés electromecánicos, tubos llenos de mercurio en los que se formaban los pulsos acústicos, matrices de imanes permanentes, transistores individuales a circuitos integrados con millones de celdas en un solo chip. En general, la memoria puede ser reescrita varios millones de veces (memoria RAM); se parece más a una pizarra que a una lápida (memoria ROM) que sólo puede ser escrita una vez.
  • El procesador (también llamado Unidad central de procesamiento o CPU) consta de manera básica de los siguientes elementos:
Un típico símbolo esquemático para una ALU: A y B son operandos; R es la salida; F es la entrada de la unidad de control; D es un estado de la salida.
  • La unidad aritmético lógica o ALU es el dispositivo diseñado y construido para llevar a cabo las operaciones elementales como las operaciones aritméticas (suma, resta, ...), operaciones lógicas (Y, O, NO), y operaciones de comparación o relacionales. En esta unidad es en donde se hace todo el trabajo computacional.
  • La unidad de control sigue la dirección de las posiciones en memoria que contienen la instrucción que el computador va a realizar en ese momento; recupera la información poniéndola en la ALU para la operación que debe desarrollar. Transfiere luego el resultado a ubicaciones apropiadas en la memoria. Una vez que ocurre lo anterior, la unidad de control va a la siguiente instrucción (normalmente situada en la siguiente posición, a menos que la instrucción sea una instrucción de salto, informando al ordenador de que la próxima instrucción estará ubicada en otra posición de la memoria).
Los procesadores pueden constar de además de las anteriormente citadas, de otras unidades adicionales como la unidad de Coma Flotante
Computadora de Escritorio.

Periféricos y dispositivos auxiliares

Artículo principal: Periférico

Monitor

TFT LCD display Samsung SyncMaster 510N.jpg
Artículo principal: Monitor de computadora

El monitor o pantalla de computadora, es un dispositivo de salida que, mediante una interfaz, muestra los resultados, o los gráficos del procesamiento de una computadora. Existen varios tipos de monitores: los de tubo de rayos catódicos (o CRT), los de pantalla de plasma (PDP), los de pantalla de cristal líquido (o LCD), de paneles de diodos orgánicos de emisión de luz (OLED), o Láser-TV, entre otros.

Teclado

Cherry keyboard 105 keys.jpg
Artículo principal: Teclado de computadora

Un teclado de computadora es un periférico, físico o virtual (por ejemplo teclados en pantalla o teclados táctiles), utilizado para la introducción de órdenes y datos en una computadora. Tiene su origen en los teletipos y las máquinas de escribir eléctricas, que se utilizaron como los teclados de los primeros ordenadores y dispositivos de almacenamiento (grabadoras de cinta de papel y tarjetas perforadas). Aunque físicamente hay una miríada de formas, se suelen clasificar principalmente por la distribución de teclado de su zona alfanumérica, pues salvo casos muy especiales es común a todos los dispositivos y fabricantes (incluso para teclados árabes y japoneses).

Ratón

3-Tastenmaus Microsoft.jpg
Artículo principal: Ratón (informática)

El mouse (del inglés, pronunciado [ˈmaʊs]) o ratón es un periférico de computadora de uso manual, utilizado como entrada o control de datos. Se utiliza con una de las dos manos del usuario y detecta su movimiento relativo en dos dimensiones por la superficie horizontal en la que se apoya, reflejándose habitualmente a través de un puntero o flecha en el monitor. Anteriormente, la información del desplazamiento era transmitida gracias al movimiento de una bola debajo del ratón, la cual accionaba dos rodillos que correspondían a los ejes X e Y. Hoy, el puntero reacciona a los movimientos debido a un rayo de luz que se refleja entre el ratón y la superficie en la que se encuentra. Cabe aclarar que un ratón óptico apoyado en un espejo o sobre un barnizado por ejemplo es inutilizable, ya que la luz láser no desempeña su función correcta. La superficie a apoyar el ratón debe ser opaca, una superficie que no genere un reflejo, es recomendable el uso de alfombrillas.

Impresora

Artículo principal: Impresora
Canon S520 ink jet printer.jpg

Una impresora es un periférico de computadora que permite producir una copia permanente de textos o gráficos de documentos almacenados en formato electrónico, imprimiendo en papel de lustre los datos en medios físicos, normalmente en papel o transparencias, utilizando cartuchos de tinta o tecnología láser. Muchas impresoras son usadas como periféricos, y están permanentemente unidas a la computadora por un cable. Otras impresoras, llamadas impresoras de red, tienen un interfaz de red interno (típicamente wireless o Ethernet), y que puede servir como un dispositivo para imprimir en papel algún documento para cualquier usuario de la red. Hoy en día se comercializan impresoras multifuncionales que aparte de sus funciones de impresora funcionan simultáneamente como fotocopiadora y escáner, siendo éste tipo de impresoras las más recurrentes en el mercado.

Escáner

Scanner.view.750pix.jpg
Artículo principal: Escáner de computadora

En informática, un escáner (del idioma inglés: scanner) es un periférico que se utiliza para convertir, mediante el uso de la luz, imágenes o cualquier otro impreso a formato digital. Actualmente vienen unificadas con las impresoras formando Multifunciones

Almacenamiento Secundario

Artículo principal: Disco duro
Artículo principal: Unidad de Estado Sólido
Disco duro abierto.jpg

El disco duro es un sistema de grabación magnética digital, es donde en la mayoría de los casos reside el Sistema operativo de la computadora. En los discos duros se almacenan los datos del usuario. En él encontramos dentro de la carcasa una serie de platos metálicos apilados girando a gran velocidad. Sobre estos platos se sitúan los cabezales encargados de leer o escribir los impulsos magnéticos.

Una Unidad de estado sólido es un sistema de memoria no volátil. Están formados por varios chips de memoria NAND Flash en su interior unidos a una controladora que gestiona todos los datos que se transfieren. Tienen una gran tendencia a suceder definitivamente a los discos duros mecánicos por su gran velocidad y tenacidad. Al no estar formadas por discos en ninguna de sus maneras, no se pueden categorizar como tal, aunque erróneamente se tienda a ello.

Altavoces

Actluidspreker 002.jpg

Los altavoces se utilizan para escuchar los sonidos emitidos por el computador, tales como música, sonidos de errores, conferencias, etc.

  • Altavoces de las placas base: Las placas base suelen llevar un dispositivo que emite pitidos para indicar posibles errores o procesos

5. que es un monitor c.r.t y por que se dice que tiene efectos dañinos para el ser humano

Monitores CRT

El monitor esta basado en un elemento CRT (Tubo de rayos catódicos), los actuales monitores, controlados por un microprocesador para almacenar muy diferentes formatos, así como corregir las eventuales distorsiones, y con capacidad de presentar hasta 1600x1200 puntos en pantalla. Los monitores CRT emplean tubos cortos, pero con la particularidad de disponer de una pantalla completamente plana.

Monitores color:

Las pantallas de estos monitores están formadas internamente por tres capas de material de fósforo, una por cada color básico (rojo, verde y azul). También consta de tres cañones de electrones, e igual que las capas de fósforo hay una por cada color.

Para formar un color en pantalla que no sea ninguno de los colores básicos, se combina las intensidades de loas haces de electrones de los tres colores básicos.

Monitores monocromáticos:

Muestra por pantalla u solo color: negro sobre blanco o ámbar, o verde sobre negro. Uno de estos monitores con una resolución equivalente a la de un monitor a color, si es de buena calidad, generalmente es más nítido y legible.

Funcionamiento de un monitor CRT

En la parte trasera del tubo encontramos la rejilla catódica, que envía electrones a la superficie interna del tubo. Estos electrones al estrellarse sobre el fósforo hacen que este se ilumine. Un CRT es básicamente un tubo vacío con un cátodo (el emisor de luzelectrónico y un ánodo (la pantalla recubierta de fósforo) que permiten a los electrones viajar desde el terminal negativo al positivo. El yugo del monitor, una bobina magnética, desvía la emisión de electrones repartiéndolo por la pantalla, para pintar las diversas líneas que forman un cuadro o imagen completa.

Los monitores monocromos utilizan un único tipo de fósforo pero los monitores de color emplean un fósforo de tres colores distribuidos por triadas. Cada haz controla uno de los colores básicos: rojo, azul y verde sobre los puntos correspondientes de la pantalla.

A medida que mejora la tecnología de los monitores, la separación entre los puntos disminuye y aumenta la resolución en pantalla (la separación entre los puntos oscila entre 0.25mm y 0.31mm). Loa avances en los materialesy las mejoras de diseño en el haz de electrones, producirían monitores de mayor nitidez y contraste. El fósforo utilizado en un monitor se caracteriza por su persistencia, esto es, el periodo que transcurre desde que es excitado (brillante) hasta que se vuelve inactivo(oscuro).

Características de monitores CRT

El refresco de pantalla

El refresco es el número de veces que se dibuja a pantalla por segundo. Evidentemente, cuando mayor sea la cantidad de veces que se refresque, menos se nos cansara la vista y trabajaremos mas cómodos y con menos problemas visuales.

La velocidaddel refresco se mide en hertzios (Hz. 1/segundo), así que 70 Hz significa que la pantalla se dibuja 70 veces por segundo. Para trabajar cómodamente necesitaremos esos 70 Hz. Para trabajar con el mínimo de fatiga visual, 80Hz o mas. El mínimo son 60 Hz; por debajo de esa cifra los ojos sufren demasiado, y unos minutos basta para empezar a sentir escozor o incluso un pequeño dolor de cabeza.

La frecuencia máxima de refresco de un monitor se ve limitada por la resolución de la pantalla. Esta ultima decide el numero de líneas o filas de la mascara de la pantalla y el resultado que se obtiene del numero de las filas de un monitor y de su frecuencia de exploración vertical (barrido o refresco) es la frecuencia de exploración horizontal; esto es el numero de veces por segundo que el haz de electrones debe desplazarse de izquierda a derecha de la pantalla.

Quien proporciona estos refrescos es la tarjeta grafica, pero quien debe presentarlos es el monitor. Si ponemos un refresco de pantalla que el monitor no soporta podríamos dañarlo, por lo que debemos conocer sus capacidades a fondo.

Resolución

Se denomina resolución de pantalla a la cantidad de píxeles que se pueden ubicar en un determinado modo de pantalla. Estos píxeles están a su vez distribuidos entre el total de horizontales y el de vértices. Todos los monitores pueden trabajar con múltiples modos, pero dependiendo del tamaño del monitor, unos nos serán más útiles que otros.

Un monitor cuya resolución máxima sea de 1024x768 píxeles puede representar hasta 768 líneas horizontales de 1024 píxeles cada una, probablemente además de otras resoluciones inferiores como 640x480 u 800x600. Cuanto mayor sea la resolución de un monitor, mejor será la calidad de la imagen de pantalla, y mayor será la calidad del monitor. La resolución debe ser apropiada además al tamaño del monitor; hay que decir también que aunque se disponga de un monitor que trabaje a una resolución de 1024x768 píxeles, si la tarjeta grafica instalada es VGA (640x480) la resolución de nuestro sistema será esta última.

Tipos de monitores por resolución:

TTL: Solo se ve texto, generalmente son verdes o ámbar.

CGA: Son de 4 colores máximo o ámbar o verde, son los primeros gráficos con una resolución de 200x400 hasta 400x600.

EGA: Monitores a colores 16 máximo o tonos de gris, con resoluciones de 400x600, 600x800.

VGA: Monitores a colores de 32 bits de color verdadero o en tono de gris, soporta 600x800, 800x1200

SVGA:Conocido como súper VGA q incrementa la resolución y la cantidad de colores de 32 a 64 bits de color verdadero, 600x400 a 1600x1800.

UVGA: No varia mucho del súper VGA, solo incrementa la resolución a 1800x1200.

XGA: Son monitores de alta resolución, especiales para diseño, su capacidad grafica es muy buena. Además la cantidad de colores es mayor.

 

 

Cosecuencias tecnologicas en el medio ambiente

1. averiguar las consecuencias del desarrollo tecnologico en el medio ambiente y en la naturaleza

Medio ambiente y tecnologías

La principal finalidad de las tecnologías es transformar el entorno humano (natural y social), para adaptarlo mejor a las necesidades y deseos humanos. En ese proceso se usan recursos naturales (terreno, aire, agua, materiales, fuentes de energía...) y personas que proveen la información, mano de obra y mercado para las actividades tecnológicas.

El principal ejemplo de transformación del medio ambiente natural son las ciudades, construcciones completamente artificiales por donde circulan productos naturales como aire y agua, que son contaminados durante su uso. La tendencia, aparentemente irreversible, es la urbanización total del planeta. Se estima que en el transcurso de 2008 la población mundial urbana superará a la rural por primera vez en la historia.[40] [41] Esto ya ha sucedido en el siglo XX para los países más industrializados. En casi todos los países la cantidad de ciudades está en continuo crecimiento y la población de la gran mayoría de ellas está en continuo aumento. La razón es que las ciudades proveen mayor cantidad de servicios esenciales, puestos de trabajo, comercios, seguridad personal, diversiones y acceso a los servicios de salud y educación.

Además del creciente reemplazo de los ambientes naturales (cuya preservación en casos particularmente deseables ha obligado a la creación de parques y reservas naturales), la extracción de ellos de materiales o su contaminación por el uso humano, está generando problemas de difícil reversión. Cuando esta extracción o contaminación excede la capacidad natural de reposición o regeneración, las consecuencias pueden ser muy graves. Son ejemplos:

Se pueden mitigar los efectos que las tecnologías producen sobre el medio ambiente estudiando los impactos ambientales que tendrá una obra antes de su ejecución, sea ésta la construcción de un caminito en la ladera de una montaña o la instalación de una gran fábrica de papel a la vera de un río. En muchos países estos estudios son obligatorios y deben tomarse recaudos para minimizar los impactos negativos (rara vez pueden eliminarse por completo) sobre el ambiente natural y maximizar (si existen) los impactos positivos (caso de obras para la prevención de aludes o inundaciones).

Para eliminar completamente los impactos ambientales negativos no debe tomarse de la naturaleza o incorporar a ella más de los que es capaz de reponer, o eliminar por sí misma. Por ejemplo, si se tala un árbol se debe plantar al menos uno; si se arrojan residuos orgánicos a un río, la cantidad no debe exceder su capacidad natural de degradación. Esto implica un costo adicional que debe ser provisto por la sociedad, transformando los que actualmente son costos externos de las actividades humanas (es decir, costos que no paga el causante, por ejemplo los industriales, sino otras personas) en costos internos de las actividades responsables del impacto negativo. De lo contrario se generan problemas que deberán ser resueltos por nuestros descendientes, con el grave riesgo de que en el transcurso del tiempo se transformen en problemas insolubles.

El concepto de desarrollo sustentable o sostenible tiene metas más modestas que el probablemente inalcanzable impacto ambiental nulo. Su expectativa es permitir satisfacer las necesidades básicas, no suntuarias, de las generaciones presentes sin afectar de manera irreversible la capacidad de las generaciones futuras de hacer lo propio. Además del uso moderado y racional de los recursos naturales, esto requiere el uso de tecnologías específicamente diseñadas para la conservación y protección del medio ambiente.

 

    

2. siete efectos positivos y siete efectos negativos de la tecnologia en el medio ambiente

. efectos negativos

1. la tala de arboles

2. la deforestacion 

3. la contaminacion

4. el calentamiento global

5. la destruccion de la capa de ozono 

6. la contaminacion de la atmosfera 

7. los desechos toxicos 

. efectos positivos 

1. nueva tecnologia 

2. hay mas plata para los ricos pero para los pobres siguen siendo pobres

3. hay mas desarrollo 

4. hay mas trabajo 

5. hay mas desarrollo intelectual

6. mejor calidad de vida 

7. hay mas avances 

3. que es el efecto invernadero justifica tu respuesta 

  

Se denomina efecto invernadero al fenómeno por el cual determinados gases, que son componentes de la atmósfera planetaria, retienen parte de la energía que el suelo emite por haber sido calentado por la radiación solar. Afecta a todos los cuerpos planetarios dotados de atmósfera. De acuerdo con la mayoría de la comunidad científica, el efecto invernadero se está viendo acentuado en la Tierra por la emisión de ciertos gases, como el dióxido de carbono y el metano, debida a la actividad humana.

Este fenómeno evita que la energía solar recibida constantemente por la Tierra vuelva inmediatamente al espacio, produciendo a escala planetaria un efecto similar al observado en un invernadero.

Efecto Invernadero de varios gases de la atmósfera

Es el proceso por el que ciertos gases de la atmósfera retienen gran parte de la radiación infrarroja emitida por la Tierra y la reemiten de nuevo a la superficie terrestre calentando la misma. Estos gases han estado presentes en la atmósfera en cantidades muy reducidas durante la mayor parte de la historia de la Tierra.[10]

Aunque la atmósfera seca está compuesta prácticamente por nitrógeno (78,1%), oxígeno (20,9%) y argón (0,93%), son gases muy minoritarios en su composición como el dióxido de carbono (0,035%: 350 ppm), el ozono y otros los que desarrollan esta actividad radiativa. Además, la atmósfera contiene vapor de agua (1%: 10.000 ppm) que también es un gas radiativamente activo, siendo con diferencia el gas natural invernadero más importante. El dióxido de carbono ocupa el segundo lugar en importancia.[3]

La denominada curva Keeling muestra el continuo crecimiento de CO2 en la atmósfera desde 1958. Recoge las mediciones de Keeling en el observatorio del volcán Mauna Loa. Estas mediciones fueron la primera evidencia significativa del rápido aumento de CO2 en la atmósfera y atrajo la atención mundial sobre el impacto de las emisiones de los gases invernadero.[11]

El efecto invernadero es esencial para la vida del planeta: sin CO2 ni vapor de agua (sin el efecto invernadero) la temperatura media de la Tierra sería unos 33 °C menos, del orden de 18 °C bajo cero, lo que haría inviable la vida.[12]

Actualmente el CO2 presente en la atmósfera está creciendo de modo no natural por las actividades humanas, principalmente por la combustión de carbón, petróleo y gas natural que está liberando el carbono almacenado en estos combustibles fósiles y la deforestación de la selva pluvial que libera el carbono almacenado en los árboles. Por tanto es preciso diferenciar entre el efecto invernadero natural del originado por las actividades de los hombres (o antropogénico).[10]

La población se ha multiplicado y la tecnología ha alcanzado una enorme y sofisticada producción de forma que se está presionando muchas partes del medio ambiente terrestre siendo la Atmósfera la zona más vulnerable de todas por su delgadez. Dado el reducido espesor atmosférico la alteración de algunos componentes moleculares básicos que también se encuentran en pequeña proporción supone un cambio significativo. En concreto, la variación de la concentración de CO2, el más importante de los gases invernadero de la atmósfera. Ya se ha explicado el papel básico que estos gases tienen como reguladores de la temperatura del Planeta.[13]

Los gases invernadero permanecen activos en la atmósfera mucho tiempo, por eso se les denomina de larga permanencia. Eso significa que los gases que se emiten hoy permanecerán durante muchas generaciones produciendo el efecto invernadero. Así del CO2 emitido a la atmósfera: sobre el 50% tardará 30 años en desaparecer, un 30% permanecerá varios siglos y el 20% restante durará varios millares de años.[14]

La concentración de CO2 atmosférico se ha incrementado desde la época preindustrial (año 1.750) desde un valor de 280 ppm a 379 ppm en 2005. Se estima que 2/3 de las emisiones procedían de la quema de combustibles fósiles (petroleo, gas y carbón) mientras un 1/3 procede del cambio en la utilización del suelo (Incluida la deforestación). Del total emitido solo el 45% permanece en la atmósfera, sobre el 30% es absorbido por los océanos y el restante 25% pasa a la biosfera terrestre. Por tanto no solo la atmósfera está aumentando su concentración de CO2, también está ocurriendo en los océanos y en la biosfera.[14]

[editar] Gases de efecto invernadero

Incrementos en la atmósfera de los cinco gases responsables del 97% del efecto invernadero antropogénico en el periodo 1976-2003.
Radiative-forcings.es.svg

Los denominados gases de efecto invernadero o gases invernadero, responsables del efecto descrito, son:

Si bien todos ellos (salvo los CFCs) son naturales, en tanto que ya existían en la atmósfera antes de la aparición del hombre, desde la Revolución industrial y debido principalmente al uso intensivo de los combustibles fósiles en las actividades industriales y el transporte, se han producido sensibles incrementos en las cantidades de óxido de nitrógeno y dióxido de carbono emitidas a la atmósfera, con el agravante de que otras actividades humanas, como la deforestación, han limitado la capacidad regenerativa de la atmósfera para eliminar el dióxido de carbono, principal responsable del efecto invernadero.

Gases de Efecto Invernadero afectados por actividades humanas
DescripciónCO2CH4N2OCFC-11HFC-23CF4
Concentración pre industrial280 ppm700 ppb270 ppb0040 ppt
Concentración en 1998365 ppm1.745 ppb314 ppb268 ppt14 ppt80 ppt
Permanencia en la atmósferade 5 a 200 años12 años114 años45 años260 años<50.000 años
Fuente: ICCP, Clima 2001, La base científica, Resumen técnico del Informe del Grupo de Trabajo I, p. 38[15]

 

 4. elavoral un ensayo acerca de los temas investigados

En mi opinion todo lo que esta sufriendo el planeta se debe en gran parte a la tecnologia ya que esta nos afecta a todos ya que hay mas deforestaciones, mas contaminacion del aire ya sea por el humo de los carros o por los quimicos que desechan las fabricas.

con el desarrollo tecnologico cada vez hay mas maquinas que remplazan al humano y por ello hay mas desempleo y estas maquinas destruyen cada vez mas el planeta hay calentamiento en los polos y estos se derriten por la mano de hombre que no se concientenizan que los animales se estan exterminando, las cocechas son cada vez mas defectuosas cada dia mas enfermedades intratables y la tecnologia lo unico que hace es poner a la gente a pensar en que debe ser intelectual y modreno pero no piensa en el daño que se le hace a la tierra. al deforestar los arboles o a destruir la fauna y la flora solo por ambicion.

y no pensamos en el futuro de nuestros hijos se algun dia van a llegar a grandes o van a morir en el intento.

pienselon el reciclaje es tu mejos eleccion.

    

1. deserrollar un ensayo acerca de los diferentes tipos de energia vistos en clase 

 

Energía eólica

De Wikipedia, la enciclopedia libre
Parque eólico. Hamburgo, Alemania.
Parque eólico de Sierra de los Caracoles, Uruguay.

Energía eólica es la energía obtenida del viento, es decir, la energía cinética generada por efecto de las corrientes de aire, y que es transformada en otras formas útiles para las actividades humanas.

El término eólico viene del latín Aeolicus, perteneciente o relativo a Eolo, dios de los vientos en la mitología griega. La energía eólica ha sido aprovechada desde la antigüedad para mover los barcos impulsados por velas o hacer funcionar la maquinaria de molinos al mover sus aspas.

En la actualidad, la energía eólica es utilizada principalmente para producir energía eléctrica mediante aerogeneradores. A finales de 2007, la capacidad mundial de los generadores eólicos fue de 94.1 gigavatios.[1] En 2009 la eólica generó alrededor del 2% del consumo de electricidad mundial, cifra equivalente a la demanda total de electricidad en Italia, la séptima economía mayor mundial.[2] En España la energía eólica produjo un 11% del consumo eléctrico en 2008,[3] [4] y un 13.8% en 2009.[5]

La energía eólica es un recurso abundante, renovable, limpio y ayuda a disminuir las emisiones de gases de efecto invernadero al reemplazar termoeléctricas a base de combustibles fósiles, lo que la convierte en un tipo de energía verde. Sin embargo, el principal inconveniente es su intermitencia.

Energía solar

De Wikipedia, la enciclopedia libre
Concentradores parabólicos que recogen la energía solar en Almería,España.

La energía solar es la energía obtenida mediante la captación de la luz y el calor emitidos por el Sol.

La radiación solar que alcanza la Tierra puede aprovecharse por medio del calor que produce a través de la absorción de la radiación, por ejemplo en dispositivos ópticos o de otro tipo. Es una de las llamadas energías renovables, particularmente del grupo no contaminante, conocido como energía limpia o energía verde. Si bien, al final de su vida útil, los paneles fotovoltaicos pueden suponer un residuo contaminante difícilmente reciclable al día de hoy.

La potencia de la radiación varía según el momento del día, las condiciones atmosféricas que la amortiguan y la latitud. Se puede asumir que en buenas condiciones de irradiación el valor es de aproximadamente 1000 W/ en la superficie terrestre. A esta potencia se la conoce como irradiancia.

La radiación es aprovechable en sus componentes directa y difusa, o en la suma de ambas. La radiación directa es la que llega directamente del foco solar, sin reflexiones o refracciones intermedias. La difusa es la emitida por la bóveda celeste diurna gracias a los múltiples fenómenos de reflexión y refracción solar en la atmósfera, en las nubes y el resto de elementos atmosféricos y terrestres. La radiación directa puede reflejarse y concentrarse para su utilización, mientras que no es posible concentrar la luz difusa que proviene de todas las direcciones.

La irradiancia directa normal (o perpendicular a los rayos solares) fuera de la atmósfera, recibe el nombre de constante solar y tiene un valor medio de 1354 W/ (que corresponde a un valor máximo en el perihelio de 1395 W/ y un valor mínimo en el afelio de 1308 W/).

Según informes de Greenpeace, la energía solar fotovoltaica podría suministrar electricidad a dos tercios de la población mundial en 2030.[1]

Energía potencial

De Wikipedia, la enciclopedia libre
Los carros de una montaña rusa alcanzan su máxima energía potencial gravitacional en la parte más alta del recorrido. Al descender, ésta es convertida en energía cinética, la que llega a ser máxima en el fondo de la trayectoria (y la energía potencial mínima). Luego, al volver a elevarse debido a la inercia del movimiento, el traspaso de energías se invierte. Si se asume una fricción insignificante, la energía total del sistema permanece constante.

En un sistema físico, la energía potencial es energía que mide la capacidad que tiene dicho sistema para realizar trabajo en función exclusivamente de su posición o configuración. Puede pensarse como la energía almacenada en el sistema, o como una medida del trabajo que un sistema puede entregar. Suele abreviarse con la letra scriptstyle U o scriptstyle E_p.

La energía potencial puede presentarse como energía potencial gravitatoria, energía potencial electrostática, y energía potencial elástica.

Más rigurosamente, la energía potencial es una magnitud escalar asociada a un campo de fuerzas (o como en elasticidad un campo tensorial de tensiones). Cuando la energía potencial está asociada a un campo de fuerzas, la diferencia entre los valores del campo en dos puntos A y B es igual al trabajo realizado por la fuerza para cualquier recorrido entre B y A

Energía eléctrica

De Wikipedia, la enciclopedia libre
Circuitos eléctricos
Ohms law voltage source.svg
Electricidad
Esta caja: ver  discusión  editar
Consumo de energía eléctrica por país, en millones de kWh.

Se denomina energía eléctrica a la forma de energía la cual resulta de la existencia de una diferencia de potencial entre dos puntos, lo que permite establecer una corriente eléctrica entre ambos —cuando se les coloca en contacto por medio de un conductor eléctrico—para obtener trabajo. La energía eléctrica puede transformarse en muchas otras formas de energía, tales como la energía luminosa o luz, la energía mecánica y la energía térmica.

Su uso es una de las bases de la tecnología utilizada por el ser humano en la actualidad.

La energía eléctrica se manifiesta como corriente eléctrica, es decir, como el movimiento de cargas eléctricas negativas, o electrones, a través de un cable conductor metálico como consecuencia de la diferencia de potencial que un generador esté aplicando en sus extremos.

Cada vez que se acciona un interruptor, se cierra un circuito eléctrico y se genera el movimiento de electrones a través del cable conductor. Las cargas que se desplazan forman parte de los átomos de— que se desea utilizar, mediante las correspondientes transformaciones; por ejemplo, cuando la energía eléctrica llega a una enceradora, se convierte en energía mecánica, calórica y en algunos casos luminosa, gracias al motor eléctrico y a las distintas piezas mecánicas del aparato.

Tiene una utilidad directa para el ser humano, salvo en aplicaciones muy singulares, como pudiera ser el uso de corrientes en medicina, resultando en cambio normalmente desagradable e incluso peligrosa, según las circunstancias. Sin embargo es una de las más utilizadas, una vez aplicada a procesos y aparatos de la más diversa naturaleza, debido fundamentalmente a su limpieza y a la facilidad con la que se le genera, transporta y convierte en otras formas de energía. Para contrarrestar todas estas virtudes hay que reseñar la dificultad que presenta su almacenamiento directo en los aparatos llamados acumuladores.

La generación de energía eléctrica se lleva a cabo mediante técnicas muy diferentes. Las que suministran las mayores cantidades y potencias de electricidad aprovechan un movimiento rotatorio para generar corriente continua en un dinamo o corriente alterna en un alternador. El movimiento rotatorio resulta a su vez de una fuente de energía mecánica directa, como puede ser la corriente de un salto de agua, la producida por el viento, o a través de un ciclo termodinámico. En este último caso se calienta un fluido, al que se hace recorrer un circuito en el que mueve un motor o una turbina. El calor de este proceso se obtiene mediante la quema de combustibles fósiles, reacciones nucleares y otros procesos.

La generación de energía eléctrica es una actividad humana básica, ya que está directamente relacionada con los requerimientos actuales del hombre. Todas la formas de utilización de las fuentes de energía, tanto las habituales como las denominadas alternativas o no convencionales, agreden en mayor o menor medida el ambiente, siendo de todos modos la energía eléctrica una de las que causan menor impacto.

La energía eléctrica se crea por el movimiento de los electrones, para que este movimiento sea continuo, tenemos que suministrar electrones por el extremo positivo para dejar que se escapen o salgan por el negativo; para poder conseguir esto, necesitamos mantener un campo eléctrico en el interior del conductor (metal, etc.).Estos aparatos construidos con el fin de crear electricidad se llaman generadores eléctricos. Claro que hay diferentes formas de crearla, eólicamente, hidráulicamente, de forma geotérmica y muchas más

Energía cinética

De Wikipedia, la enciclopedia libre
Para otros usos de este término, véase Cinética.
Los carros de una montaña rusa alcanzan su máxima energía cinética cuando están en el fondo de su trayectoria. Cuando comienzan a elevarse, la energía cinética comienza a ser convertida a energía potencial gravitacional, pero, si se asume una fricción insignificante y otros factores de retardo, la cantidad total de energía en el sistema sigue siendo constante.

La energía cinética de un cuerpo es una energía que surge en el fenómeno del movimiento. Está definida como el trabajo necesario para acelerar un cuerpo de una masa dada desde el reposo hasta la velocidad que posee. Una vez conseguida esta energía durante la aceleración, el cuerpo mantiene su energía cinética salvo que cambie su rapidez o su masa. Para que el cuerpo regrese a su estado de reposo se requiere un trabajo negativo de la misma magnitud que su energía cinética.

La energía química es una manifestación más de la energía. En concreto,
és uno de los aspectos de la energía interna de un cuerpo y, aunque se en-
cuentra siempre en la materia, sólo se nos muestra cuando se produce una
alteración íntima de ésta.

     En la ctualidad, la energía química és la que mueve los automóviles, los
buques y los aviones y, en general, millones de máquinas. Tanto la combus-
tión del carbón, de la leña o del petróleo en las máquinas de vapor como la
de los derivados del petróleo en el estrecho y reducido espacio de los cilin-
dros de un motor de explosión, constituyen reacciones químicas.

      

          

     El carbón y la gasolina gasificada se combinan con el oxígeno del aire, re-
accionan con él y se transforman suave y lentamente, en el caso del carbón,
o instantáne y rapidamente, en el caso de la gasolina dentro de los cilindros
de los motores. Las mezclas gaseosas inflamadas se dilatan considerable y
rapidamente y en un instante comunican a los pistones del motor su energía
de traslación, su fuerza viva o de movimiento.

     Si se rodeasen el carbón o la leña, la gasolina y el petróleo de una atmós-
fera de gas inerte, por ejemplo nitrógeno gaseoso, ni los primeros arderían
ni los últimos explotarian en los cilindros. El nitrógeno no reacciona con
aquellos cuerpos y las mezclas de gasolina y nitrógeno ni arden ni explotan.

     Finalmente, hay que mencionar la más reciente y espectacular aplicación
de la energía química para lograr lo que durante muchos siglos constituyó su
sueño: el viaje de ida y vuelta al espacio ex
terior y a la Luna, asi como la co-
locación de distintos tipos de satélites artificiales en determinadas órbitas.

Energía nuclear

De Wikipedia, la enciclopedia libre
Núcleo de un reactor nuclear de fisión de investigación TRIGA. Puede apreciarse la radiación Cherenkov, en azul.
Central nuclear de Ikata, con tres reactores de agua a presión (PWR). La refrigeración se realiza mediante un intercambio de agua con el océano.
Planta de energía nuclear Susquehanna, con dos reactores de agua en ebullición (BWR). La refrigeración se realiza en circuito cerrado mediante dos torres de refrigeración que emiten vapor de agua.
Central nuclear de Lemóniz (España) cuya puesta en marcha fue abandonada por la actividad terrorista de ETA

La energía nuclear es la energía que se libera espontánea o artificialmente en las reacciones nucleares. Sin embargo, este término engloba otro significado, el aprovechamiento de dicha energía para otros fines como, por ejemplo, la obtención de energía eléctrica, térmica y mecánica a partir de reacciones nucleares, y su aplicación, bien sea con fines pacíficos o bélicos.[1] Así, es común referirse a la energía nuclear no solo como el resultado de una reacción sino como un concepto más amplio que incluye los conocimientos y técnicas que permiten la utilización de esta energía por parte del ser humano.

Estas reacciones se dan en los núcleos de algunos isótopos de ciertos elementos químicos, siendo la más conocida la fisión del uranio-235 (235U), con la que funcionan los reactores nucleares, y la más habitual en la naturaleza, en el interior de las estrellas, la fusión del par deuterio-tritio (2H-3H). Sin embargo, para producir este tipo de energía aprovechando reacciones nucleares pueden ser utilizados muchos otros isótopos de varios elementos químicos, como el torio-232, el plutonio-239, el estroncio-90 o el polonio-210 (232Th, 239Pu, 90Sr, 210Po; respectivamente).

Existen varias disciplinas y técnicas que usan de base la energía nuclear y van desde la generación de electricidad en las centrales nucleares hasta las técnicas de análisis de datación arqueológica (arqueometría nuclear), la medicina nuclear usada en los hospitales, etc.

Los dos sistemas más investigados y trabajados para la obtención de energía aprovechable a partir de la energía nuclear de forma masiva son la fisión nuclear y la fusión nuclear. La energía nuclear puede transformarse de forma descontrolada, dando lugar al armamento nuclear; o controlada en reactores nucleares en los que se produce energía eléctrica, energía mecánica o energía térmica. Tanto los materiales usados como el diseño de las instalaciones son completamente diferentes en cada caso.

Otra técnica, empleada principalmente en pilas de mucha duración para sistemas que requieren poco consumo eléctrico, es la utilización de generadores termoeléctricos de radioisótopos (GTR, o RTG en inglés), en los que se aprovechan los distintos modos de desintegración para generar electricidad en sistemas de termopares a partir del calor transferido por una fuente radiactiva.

La energía desprendida en esos procesos nucleares suele aparecer en forma de partículas subatómicas en movimiento. Esas partículas, al frenarse en la materia que las rodea, producen energía térmica. Esta energía térmica se transforma en energía mecánica utilizando motores de combustión externa, como las turbinas de vapor. Dicha energía mecánica puede ser empleada en el transporte, como por ejemplo en los buques nucleares; o para la generación de energía eléctrica en centrales nucleares.

La principal característica de este tipo de energía es la alta calidad de la energía que puede producirse por unidad de masa de material utilizado en comparación con cualquier otro tipo de energía conocida por el ser humano, pero sorprende la poca eficiencia del proceso, ya que se desaprovecha entre un 86 y 92% de la energía que se libera

Energía mecánica

De Wikipedia, la enciclopedia libre
La energía mecánica puede manifestarse de diversas maneras.

La energía mecánica es la energía que se debe a la posición y al movimiento de un cuerpo, por lo tanto, es la suma de las energías potencial, cinética y la elástica de un cuerpo en movimiento. Expresa la capacidad que poseen los cuerpos con masa de efectuar un trabajo.

En la energía potencial puede considerarse también la energía potencial elástica, aunque esto suele aplicarse en el estudio de problemas de ingeniería y no de física

Energía térmica

De Wikipedia, la enciclopedia libre
Imagen del Sol tomada a través de rayos X.

Se denomina energía térmica no autorizada a la energía liberada en forma de calor. Puede ser obtenida de la naturaleza o del sol, mediante una reacción exotérmica, como la combustión de algún combustible; por una reacción nuclear de fisión o de fusión; mediante energía eléctrica por efecto Joule o por efecto termoeléctrico; o por rozamiento, como residuo de otros procesos mecánicos o químicos. Asimismo, es posible aprovechar energía de la naturaleza que se encuentra en forma de energía térmica, como la energía geotérmica o la energía solar fotovoltaica.

La energía térmica se puede transformar utilizando un motor térmico, ya sea en energía eléctrica, en una central termoeléctrica; o en trabajo mecánico, como en un motor de automóvil, avión o barco.

La obtención de energía térmica implica un impacto ambiental. La combustión libera dióxido de carbono (CO2) y emisiones contaminantes. La tecnología actual en energía nuclear da lugar a residuos radiactivos que deben ser controlados. Además deben tenerse en cuenta la utilización de terreno de las plantas generadoras de energía y los riesgos de contaminación por accidentes en el uso de los materiales implicados, como los derrames de petróleo o de productos petroquímicos derivados.

2. seleccione uno o mostrarlo en forma practica

la energia nuclear

La energía nuclear es la energía que se libera espontánea o artificialmente en las reacciones nucleares. Sin embargo, este término engloba otro significado, el aprovechamiento de dicha energía para otros fines como, por ejemplo, la obtención de energía eléctrica, térmica y mecánica a partir de reacciones nucleares, y su aplicación, bien sea con fines pacíficos o bélicos.[1] Así, es común referirse a la energía nuclear no solo como el resultado de una reacción sino como un concepto más amplio que incluye los conocimientos y técnicas que permiten la utilización de esta energía por parte del ser humano.

Estas reacciones se dan en los núcleos de algunos isótopos de ciertos elementos químicos, siendo la más conocida la fisión del uranio-235 (235U), con la que funcionan los reactores nucleares, y la más habitual en la naturaleza, en el interior de las estrellas, la fusión del par deuterio-tritio (2H-3H). Sin embargo, para producir este tipo de energía aprovechando reacciones nucleares pueden ser utilizados muchos otros isótopos de varios elementos químicos, como el torio-232, el plutonio-239, el estroncio-90 o el polonio-210 (232Th, 239Pu, 90Sr, 210Po; respectivamente).

Existen varias disciplinas y técnicas que usan de base la energía nuclear y van desde la generación de electricidad en las centrales nucleares hasta las técnicas de análisis de datación arqueológica (arqueometría nuclear), la medicina nuclear usada en los hospitales, etc.

Los dos sistemas más investigados y trabajados para la obtención de energía aprovechable a partir de la energía nuclear de forma masiva son la fisión nuclear y la fusión nuclear. La energía nuclear puede transformarse de forma descontrolada, dando lugar al armamento nuclear; o controlada en reactores nucleares en los que se produce energía eléctrica, energía mecánica o energía térmica. Tanto los materiales usados como el diseño de las instalaciones son completamente diferentes en cada caso.

Otra técnica, empleada principalmente en pilas de mucha duración para sistemas que requieren poco consumo eléctrico, es la utilización de generadores termoeléctricos de radioisótopos (GTR, o RTG en inglés), en los que se aprovechan los distintos modos de desintegración para generar electricidad en sistemas de termopares a partir del calor transferido por una fuente radiactiva.

La energía desprendida en esos procesos nucleares suele aparecer en forma de partículas subatómicas en movimiento. Esas partículas, al frenarse en la materia que las rodea, producen energía térmica. Esta energía térmica se transforma en energía mecánica utilizando motores de combustión externa, como las turbinas de vapor. Dicha energía mecánica puede ser empleada en el transporte, como por ejemplo en los buques nucleares; o para la generación de energía eléctrica en centrales nucleares.

La principal característica de este tipo de energía es la alta calidad de la energía que puede producirse por unidad de masa de material utilizado en comparación con cualquier otro tipo de energía conocida por el ser humano, pero sorprende la poca eficiencia del proceso, ya que se desaprovecha entre un 86 y 92% de la energía que se libera.[2]

     

 

3. detallar su funcion, elaboracion y herramientas de fabricacion

 

La energía nuclear es la energía que se libera espontánea o artificialmente en las reacciones nucleares. Sin embargo, este término engloba otro significado, el aprovechamiento de dicha energía para otros fines como, por ejemplo, la obtención de energía eléctrica, térmica y mecánica a partir de reacciones nucleares, y su aplicación, bien sea con fines pacíficos o bélicos.[1] Así, es común referirse a la energía nuclear no solo como el resultado de una reacción sino como un concepto más amplio que incluye los conocimientos y técnicas que permiten la utilización de esta energía por parte del ser humano.

Estas reacciones se dan en los núcleos de algunos isótopos de ciertos elementos químicos, siendo la más conocida la fisión del uranio-235 (235U), con la que funcionan los reactores nucleares, y la más habitual en la naturaleza, en el interior de las estrellas, la fusión del par deuterio-tritio (2H-3H). Sin embargo, para producir este tipo de energía aprovechando reacciones nucleares pueden ser utilizados muchos otros isótopos de varios elementos químicos, como el torio-232, el plutonio-239, el estroncio-90 o el polonio-210 (232Th, 239Pu, 90Sr, 210Po; respectivamente).

Armas nucleares

Un arma es todo instrumento, medio o máquina que se destina a atacar o a defenderse.[11] Según tal definición, existen dos categorías de armas nucleares:

  1. Aquellas que utilizan la energía nuclear de forma directa para el ataque o la defensa, es decir, los explosivos que usan la fisión o la fusión.
  2. Aquellas que utilizan la energía nuclear para su propulsión, pudiendo a su vez utilizar o no munición que utilice la energía nuclear para su detonación. En esta categoría se pueden citar los buques de guerra de propulsión nuclear (cruceros, portaaviones, submarinos, bombarderos, etc.).
Véanse también: Arma nuclear y propulsión nuclear

[editar] Bomba atómica

Artículo principal: Bomba atómica

Existen dos formas básicas de utilizar la energía nuclear desprendida por reacciones en cadena descontroladas de forma explosiva: la fisión y la fusión.

Bomba de fisión
Métodos utilizados para crear una masa crítica del elemento físil empleado en la bomba de fisión.

El 16 de julio de 1945 se produjo la primera explosión de una bomba de fisión creada por el ser humano: La Prueba Trinity.

Existen dos tipos básicos de bombas de fisión: utilizando uranio altamente enriquecido (enriquecimiento superior al 90% en 235U) o utilizando plutonio. Ambos tipos se fundamentan en una reacción de fisión en cadena descontrolada y solo se han empleado en un ataque real en Hiroshima y Nagasaki, al final de la Segunda Guerra Mundial.

Para que este tipo de bombas funcionen es necesario utilizar una cantidad del elemento utilizado superior a la Masa crítica. Suponiendo una riqueza en el elemento del 100%, eso suponen 52 kg de 235U o 10 kg de 239Pu. Para su funcionamiento se crean 2 o más partes subcríticas que se unen mediante un explosivo químico convencional de forma que se supere la masa crítica.

Los dos problemas básicos que se debieron resolver para crear este tipo de bombas fueron:

  • Generar suficiente cantidad del elemento físil a utilizar, ya sea uranio enriquecido o plutonio puro.
  • Alcanzar un diseño en el que el material utilizado en la bomba no sea destruido por la primera explosión antes de alcanzar la criticidad.

El rango de potencia de estas bombas se sitúa entre aproximadamente el equivalente a una tonelada de TNT hasta los 500.000 kilotones.

Bomba de fusión
Diseño básico Teller-Ullam

Tras el primer ensayo exitoso de una bomba de fisión por la Unión Soviética en 1949 se desarrolló una segunda generación de bombas nucleares que utilizaban la fusión. Se la llamó bomba termonuclear, bomba H o bomba de hidrógeno. Este tipo de bomba no se ha utilizado nunca contra ningún objetivo real. El llamado diseño Teller-Ullam (o secreto de la bomba H) separa ambas explosiones en dos fases.

Este tipo de bombas pueden ser miles de veces más potentes que las de fisión. En teoría no existe un límite a la potencia de estas bombas, siendo la de mayor potencia explotada la bomba del Zar, de una potencia superior a los 50 megatones.

Las bombas de hidrógeno utilizan una bomba primaria de fisión que genera las condiciones de presión y temperatura necesarias para comenzar la reacción de fusión de núcleos de hidrógeno. Debido a que los únicos productos radiactivos que generan estas bombas son los producidos en la explosión primaria de fisión, por lo que a veces se le ha llamado bomba nuclear limpia. El extremo de esta característica son las llamadas bombas de neutrones o bomba N, que minimizan la bomba de fisión primaria, logrando un mínimo de productos de fisión. Estas bombas además se diseñaron de tal modo que la mayor cantidad de energía liberada sea en forma de neutrones, con lo que su potencia explosiva es la décima parte que una bomba de fisión. Fueron concebidas como armas anti-tanque, ya que al penetrar los neutrones en el interior de los mismos, matan a sus ocupantes por las radiaciones.

Véase también: Proceso Teller-Ulam

[editar] Buques militares de propulsión nuclear

Durante la segunda guerra mundial se comprobó que el submarino podía ser un arma decisiva, pero poseía un grave problema a resolver: su necesidad de emerger tras cortos períodos para obtener aire para la combustión del diésel en que se basaban sus motores (la invención del snorkel mejoró algo el problema, pero no lo solucionó). El Almirante Hyman G. Rickover fue el primero que pensó que la energía nuclear podría ayudar con este problema.

USS Enterprise (CVN-65) junto con otros buques de apoyo de propulsión nuclear (un crucero y un destructor) en el Mediterráneo. La tripulación forma en su cubierta la famosa fórmula de Einstein E=mc² sobre la equivalencia masa-energía.

Los desarrollos de los reactores nucleares permitieron un nuevo tipo de motor con ventajas fundamentales:

  1. No precisa aire para el funcionamiento del motor, ya que no se basa en la combustión.
  2. Una pequeña masa de combustible nuclear permite una autonomía de varios meses (años incluso) sin repostar. Por ejemplo, los submarinos de Estados Unidos no necesitan repostar durante toda su vida útil.
  3. Un empuje que ningún otro motor puede equiparar, con lo que pudieron construirse submarinos mucho más grandes que los existentes hasta el momento. El mayor submarino construido hasta la fecha son los de la clase Akula rusos (desplazamiento de 48 mil toneladas, 175 m de longitud).

Estas ventajas condujeron a buques que alcanzan velocidades de más de 25 nudos, que pueden permanecer semanas en inmersión profunda y que además pueden almacenar enormes cantidades de munición (nuclear o convencional) en sus bodegas. De hecho las armadas de Estados Unidos, Francia y el Reino Unido sólo poseen submarinos que utilizan este sistema de propulsión.

En los submarinos se han utilizado reactores de agua a presión, de agua en ebullición o de sales fundidas. Para conseguir reducir el peso del combustible en estos reactores se usa uranio con altos grados de enriquecimiento (del 30 al 40% en los rusos o del 96% en los estadounidenses). Estos reactores presentan la ventaja de que no es necesario (aunque sí es posible) convertir el vapor generado por el calor en electricidad, sino que puede utilizarse de forma directa sobre una turbina que proporciona el movimiento a las hélices que impulsan el buque, mejorando notablemente el rendimiento.

Se han construido una gran variedad de buques militares que usan motores nucleares y que, en algunos casos, portan a su vez misiles de medio o largo alcance con cabezas nucleares:

Estados Unidos, Gran Bretaña, Rusia, China y Francia poseen buques de propulsión nuclear.

[editar] Aviones militares de propulsión nuclear

Tanto Estados Unidos como la Unión Soviética se plantearon la creación de una flota de bombarderos de propulsión nuclear. De este modo se pretendía mantenerlos cargados con cabezas nucleares y volando de forma permanente cerca de los objetivos prefijados. Con el desarrollo del Misil balístico intercontinental (ICBM) a finales de los 50, más rápidos y baratos, sin necesidad de pilotos y prácticamente invulnerables, se abandonaron todos los proyectos.

Los proyectos experimentales fueron:

  • Convair X-6. Proyecto estadounidense a partir de un bombardero B-36. Llegó a tener un prototipo (el NB-36H) que realizó 47 vuelos de prueba de 1955 a 1957, año en el que se abandonó el proyecto. Se utilizó un reactor de fisión de 3 MW refrigerado con aire que solo entró en funcionamiento para las pruebas de los blindajes, nunca propulsando el avión.
  • Tupolev Tu-119. Proyecto soviético a partir de un bombardero Tupolev Tu-95. Tampoco pasó de la etapa de pruebas.

[editar] Propulsión nuclear civil

La energía nuclear se utiliza desde los años 50 como sistema para dar empuje (propulsar) distintos sistemas, desde los submarinos (el primero que utilizó la energía nuclear), hasta naves espaciales en desarrollo en este momento.

Véase también: Propulsión nuclear

[editar] Buques nucleares civiles

El NS Savannah, el primer buque nuclear de mercancías y pasajeros jamás construido, fue botado en 1962 y desguazado 8 años más tarde por su inviabilidad económica.

Tras el desarrollo de los buques de propulsión nuclear de uso militar se hizo pronto patente que existían ciertas situaciones en las que sus características podían ser trasladadas a la navegación civil.

Se han construido cargueros y rompehielos que usan reactores nucleares como motor.

El primer buque nuclear de carga y pasajeros fue el NS Savannah, botado en 1962. Solo se construyeron otros 3 buques de carga y pasajeros: El Mutsu japonés, el Otto Hahn alemán y el Sevmorput ruso. El Sevmorput (acrónimo de 'Severnii Morskoi Put'), botado en 1988 y dotado con un reactor nuclear tipo KLT-40 de 135 MW, sigue en activo hoy en día transitando la ruta del mar del norte.

Rusia ha construido 9 rompehielos nucleares desde 1959 hasta 2007, realizando recorridos turísticos, viajando hacia el polo norte, desde 1989. El coste de uno de sus viajes es de 25.000 dólares por un viaje de 3 semanas.

[editar] Propulsión aeroespacial

Recreación artística del Proyecto Orión.

Aunque existen varias opciones que pueden utilizar la energía nuclear para propulsar cohetes espaciales, solo algunas han alcanzado niveles de diseño avanzados.

El cohete termonuclear, por ejemplo, utiliza hidrógeno recalentado en un reactor nuclear de alta temperatura, consiguiendo empujes al menos dos veces superiores a los cohetes químicos. Este tipo de cohetes se probaron por primera vez en 1959 (el Kiwi 1), dentro del Proyecto Nerva, cancelado en 1972. En 1990 se relanzó el proyecto bajo las siglas SNTP (Space Nuclear Thermal Propulsión) dentro del proyecto para un viaje tripulado a Marte en 2019. En 2003 comenzó con el nombre de Proyecto Prometeo. Otra de las posibilidades contempladas es el uso de un reactor nuclear que alimente a un propulsor iónico (el Nuclear Electric Xenon Ion System o 'NEXIS').

El Proyecto Orión[12] fue un proyecto ideado por Stanisław Ulam en 1947, que comenzó en 1958 en la empresa General Atomics. Su propósito era la realización de viajes interplanetarios de forma barata a una velocidad de un 10% de c. Para ello utilizaba un método denominado propulsión nuclear pulsada (External Pulsed Plasma Propulsión es su denominación oficial en inglés). El proyecto fue abandonado en 1963, pero el mismo diseño se ha utilizado como base en el Proyecto Dédalo[13] británico con motor de fusión, el Proyecto Longshot[14] americano con motor de fisión acoplado a un motor de fusión inercial o el Proyecto Medusa.

También se ha propuesto el uso de RTG como fuente para un cohete de radioisótopos.[15]

[editar] Automóvil nuclear

La única propuesta conocida es el diseño conceptual lanzado por Ford en 1958: el Ford Nucleon.[16] Nunca fue construido un modelo operacional. En su diseño se proponía el uso de un pequeño reactor de fisión que podía proporcionar una autonomía de más de 8.000 km. Un prototipo del coche se mantiene en el museo Henry Ford.

Una opción, incluida en las alternativas al petróleo, es el uso del hidrógeno en células de combustible como combustible para vehículos de hidrógeno. Se está investigando en este caso el uso de la energía nuclear para la generación del hidrógeno necesario mediante reacciones termoquímicas o de electrólisis con vapor a alta temperatura.[17]

 4. destificar la eleccion anterior con tus propias palabras

 ya que con esta se pueden realizar muchas cosas tambien hace daño al mundo con sus bombas nucleares etc

5.  graficar tu eleccion anterior con tus propias palabras

Actividad de tecnologia

1.determinar los procesadores de texto en la tecnologia y tomar 3 como ejm

2. necesito conocimientos previos a la informatica para aprendrer a manejar un procesador de textos

3. describir y enumeral diez teclas rapidas de microsoft word

4. describa los siguientes enunciados: chat y irc webchat: hacker, craker   

   

solucion

1. Por definición, un procesador de texto es un softwareinformático destinado a la creación y edición de documentos de texto. Los procesadores de textobrindan unas u otras posibilidades según la aplicación de que se disponga. Como regla general básica, todos los procesadores de texto pueden trabajar con distintos formatos de párrafo, tamaño y orientación de las fuentes, efectos de formato, además de contar con las propiedades de poder  cortar y copiar texto, fijar espacio entre líneas y entre párrafos, alinear párrafos, establecer sangrías y tabulados, crear y modificar estilos, activar presentaciones preliminares antes de la impresión o visualizar las páginas editadas.  Los procesadores de texto incorporan desde hace algunos años también correctores automáticos de ortografía y gramática así como diccionarios multilingües y de sinónimos que facilitan sobremanera la labor de redacción.

procesadores

Edit Pad

Un reemplazo para el Bloc de Notas de Windows con soporte de múltiples ficheros, drag & drop, y más. Cambia entre los ficheros abiertos de forma fácil a través de pestañas. Este programa incorpora todas las funciones habituales en este tipo de programas: edición de ventanas múltiples, tamaño ilimitado de ficheros, hacer que la ventana esté encima de todas las demás, conversiones automáticas entre sistemas, etc.

UltraEdit 32

Es más que un reemplazo del Bloc de Notas, es un editor de textos completísimo. Soporta múltiples ficheros al mismo tiempo y de tamaño ilimitado, drag and drop, edición hexadecimal, configuración de colores según la sintaxis para programadores (ya lleva HTML, Java, C/C++, VB por defecto), edición de columnas, ordenación, y una barra de herramientas configurable. Puedes conseguir el diccionario castellano para usar con UltraEdit en la Web del autor. La nueva versión mejora el soporte de FTP y de macros, y corrige algunos "bugs". Caduca a los 45 días.

Textpad

El mejor editor de textos del mercado. Con él que podrás abrir múltiples ficheros a la vez, hacer una búsqueda/reemplazo en múltiples ficheros, y tener todas las opciones de un buen editor sin ocupar casi memoria y con carga rápida. Un programa diseñado para reemplazar al Bloc de Notas de Windows y darle al usuario todo el poder y funcionalidad necesarios para satisfacer los requerimientos de edición de texto más elevados. Soporta ficheros de texto grandes, limitados tan sólo por la memoria virtual de tu sistema.

Tolken 97

Tolken97 es un excelente y muy rápido programa de traducción, que tambien es un editor de textos. Además tiene diccionario y comprobación de vocabulario incorporado, todo en uno. Traduce documentos, mensajes de e-mail, páginas Web, etc. La traducción se hace desde/hacia Inglés y Sueco, desde los siguientes lenguajes: Danés, Francés, Alemán, Noruego, y Español. Completa y segura opción de instalación y desinstalación. El programa realiza la traducción palabra a palabra, y no frase por frase. Este programa tiene todas las opciones que esperas en un traductor/editor de textos hoy en día, como: manejo de ficheros de tamaño ilimitado, manejo de varios textos simultáneos, corrección automática para abrir y editar textos DOS y UNIX, desplazamiento de texto (scroll) automático con velocidades ajustables, función de copia de seguridad, menús y diálogos en Inglés o en Sueco, encriptación y desencriptación de texto, completa búsqueda de texto, conversión a texto HTML, conversión de textos MAC a textos WINDOWS, desplazamiento (scroll) sincronizado de todos los documentos abiertos, y muchas más opciones!

2. si.por que uno mas o menos ya sabe manejar todo lo que tenga que ver con el computador

3. Para convertir texto a mayúsculas/minúsculas solo deberás seleccionar un texto y presionar [SHIFT + F3], verás como el texto cambia entre mayúsculas, minúscula y capital (cuando solo las primeras letras son mayúsculas).

Para buscar un texto presiona [Ctrl + B] y para que aparezca la ventana de reemplazar texto, la combinación [Ctrl + L]

Las siguientes combinaciones de teclas te permitirán escribir algunos caracteres especiales al instante:

Atl + Ctrl + "-" (Del teclado numérico) -> Muestra el guión largo.
Ctrl + "-" (Del teclado numérico) -> Muestra el guión corto.
Atl + Ctrl + C -> Símbolo del copyright (©)
Alt + Ctrl + R -> Símbolo de "registrado" (®)
Alt + Ctrl + T -> Símbolo de "marca registrada" (™)
Alt + Ctrl + "." -> Puntos suspensivos (...)
Cualquiera de las cuatro combinaciones siguientes imprimirán en nuestra hoja el símbolo del euro (€).

Alt Gr + E | Alt Gr + 5 | Alt + Ctrl + E | Alt + Ctrl + 5

Cambiar de mayúsculas a minúsculas: seleccionar cualquier letra de la palabra y luego pulsar Shift + F3

Sinónimos: seleccionar cualquier letra y pulsad Shift + F7

Cambiar el tamaño de una letra o palabra:

Para disminuir el tamaño pulsamos Control + <

Para aumentar el tamaño pulsamos Control + >

  • CTRL + B - Escribir letras negritas
  • CTRL + I - Escribir letras en cursiva
  • CTRL + U - Subrayado de las letras
  • CTRL + DEL - Eliminar la palabra que se encuentra a la derecha del cursor.
  • CTRL + BACKSPACE - Eliminar la palabra ubicada a la izquierda del cursor.
  • CTRL + SHIFT + barra espaciadora - Borra todo el texto.
  • CTRL+C - Copia el texto seleccionado o objeto.
  • CTRL+X – Corta el texto seleccionado o objeto.
  • CTRL+V - Pega el texto seleccionado o objeto.
  • CTRL+ALT+V – Pegado especial.
  • CTRL+SHIFT+< – Reduce el tamaño de la fuente del texto en un punto.
  • CTRL+SHIFT+> – Incrementa el tamaño de la fuente del texto en un punto.

  • CTRL+[ - Reduce el tamaño de la fuente en un punto.
  • CTRL+] – Incrementa el tamaño de la fuente en un punto.
  • CTRL+HYPHEN – Borra todo el texto.
  • CTRL+barra espaciadora – Borra el parrafo o el formato del caracter.
  • CTRL+SHIFT+V - Pega el formato solo
  • CTRL+Z – Deshace la última acción.
  • CTRL+Y - Rehace la última acción.
  • CTRL+SHIFT+G - Abre la caja de dialogo del contador de palabras.
  • CTRL+L – Alinea la selección o el párrafo a la izquierda de la pantalla.
  • CTRL+E - Alinea la selección o el párrafo al centro de la pantalla.
  • CTRL+M – Aplica sangría al párrafo o texto seleccionado.
  • CTRL +1 – Interlineado simple en las líneas seleccionadas.
  • CTRL +2 - Interlineado doble en las líneas seleccionadas.
  • CTRL +5 – Interlineado de 1.5 en las líneas seleccionadas.
  • F7 - Ejecuta el corrector ortográfico.
  • SHIFT+F7 – Usa el buscador de sinónimos.
  • CTRL+SPACE – Cambiar Autocorrección.
  • CTRL+SHIFT+8 – Muestra los caracteres ocultos como marca de espacio, retornos de carro, entre otros.
  • 4. chat

    El chat (término proveniente del inglés que en español equivale a charla), también conocido como cibercharla, designa una comunicación escrita realizada de manera instantánea a través de Internet entre dos o más personas ya sea de manera pública a través de los llamados chats públicos (mediante los cuales cualquier usuario puede tener acceso a la conversación) o privada, en los que se comunican sólo 2 personas a la vez.

    //  Son muchas las acepciones de la palabra chat, y por lo general agrupa a todos los protocolos que cumplen la función de comunicar a dos o más personas, dentro de éstos los clientes de chat (como, por ejemplo, X-Chat, ChatZilla (el cliente de Mozilla/SeaMonkey o el mIRC); éstos usan el protocolo IRC, cuyas siglas significan Internet Relay Chat. Otros son protocolos distintos pero agrupados en la mensajería instantánea, tales como Windows Live Messenger, Yahoo! Messenger, Jabber/XMPP o ICQ, entre los más conocidos, o también el servicio SMS de telefonía móvil. Actualmente Orkut de Google cuenta con un servicio de Chat en línea.También se puede incluir aquí el peer-to-peer. Es muy usado, además, el método webchat, que no es otra cosa que enviar y recibir mensajes a través de una página dinámica de Internet, o usando el protocolo "IRC" si se trata de un

    applet de Java.

    irc

    IRC
    (Internet Relay Chat). Charla Interactiva Internet. Protocolo mundial para conversaciones simultáneas (“party line”) que permite comunicarse por escrito entre si a través de ordenador a varias personas en tiempo real. El servicio IRC esta estructurado mediante una red de servidores, cada uno de los cuales acepta conexiones de programas  cliente, uno por cada usuario

    ClienteCliente Cualquier elemento de un sistema de información que requiere un servicio mediante el envío de solicitudes al servidor. Cuando dos programas se comunican por una red, el cliente es...

    -JSPJSP (Java Server Page) Página de Servidor Java. Se refiere a un tipo especial de páginas HTML, en las cuales se insertan pequeños programas que corren sobre Internet (comunmente denominados...

    -B2BB2B (Busissnes to Busissnes o B-to-B) Negocio a negocio. Consiste en el comercio electrónico entre empresas a través de Internet. Esto incluye la presentación de propuestas, negociación de precios, cierre...

    -UsuarioEl concepto de usuario es utilizado generalmente en el campo de la tecnología informática para referirse a quien utiliza determinado hardware y/o software, mediante el cual obtiene un servicio. Quizá...

    -Tiempo RealTiempo Real Se dice que un ordenador trabaja en tiempo real cuando realiza una transacción que le ha sido ordenada desde un terminal en ese mismo momento, sin espera alguna....

    webchat

     

    No se si todos somos concientes que cuando entramos a Internet a navegar por los paginas Web, según el tipo de pagina que nos encontremos habrá cientos, miles y hasta millones de personas que visitan esa pagina al mismo tiempo que nosotros.

    Existen lugares en Internet que poseen contadores de usuarios, algunas pueden hasta mostrar en tiempo real el número de usuarios conectados simultáneamente...

     

    Pero quienes son esos usuarios en realidad, que piensan, que sueños tienen?. Si visitan la misma página donde me encuentro probablemente tengan intereses u objetivos similares a los míos.

     

    Como comunicarme con ellos si ni siquiera estoy seguro que est&aacuten allí?.

     

    Es a partir de este concepto fundamental que nace WebChat, como un medio de comunicación entre todas las personas que visitan las mismas paginas Web que tu.

     

    Ete es el programa encargado de permitir la comunicación entre personas que tienen algo en común. Haciendo de cada pagina de Internet un salón de charla donde podrás encontrar muchos amigos!.

     

    Siendo así las cosas WebChat es el Chat con el mayor número de salones de charla en el mundo.!

    cracker

    En informática, un hacker1 es una persona que pertenece a una de estas comunidades o subculturas distintas pero no completamente independientes:

    El emblema hacker, un proyecto para crear un símbolo reconocible para la percepción de la cultura hacker.
    • Gente apasionada por la seguridad informática. Esto concierne principalmente a entradas remotas no autorizadas por medio de redes de comunicación como Internet ("Black hats"). Pero también incluye a aquellos que depuran y arreglan errores en los sistemas ("White hats") y a los de moral ambigua como son los "Grey hats".

    En la actualidad se usa de forma corriente para referirse mayormente a los criminales informáticos, debido a su utilización masiva por parte de los medios de comunicación desde la década de 1980. A los criminales se le pueden sumar los llamados "script kiddies", gente que invade computadoras, usando programas escritos por otros, y que tiene muy poco conocimiento sobre como funcionan. Este uso parcialmente incorrecto se ha vuelto tan predominante que, en general, un gran segmento de la población no es consciente de que existen diferentes significados.

    Mientras que los hackers aficionados reconocen los tres tipos de hackers y los hackers de la seguridad informática aceptan todos los usos del término, los hackers del software libre consideran la referencia a intrusión informática como un uso incorrecto de la palabra, y se refieren a los que rompen los sistemas de seguridad como "crackers" (analogía de "safecracker", que en español se traduce como "un ladrón de cajas fuertes

    craker

    El término cracker (del inglés crack, romper) tiene varias acepciones, entre las que podemos observar las siguientes:

    • Es una persona que mediante ingeniería inversa realiza: seriales, keygens y cracks, los cuales sirven para modificar el comportamiento o ampliar la funcionalidad del software o hardware original al que se aplican, sin que en absoluto pretenda ser dañino para el usuario del mismo.
    • Es cualquier persona que viola la seguridad de un sistema informático de forma similar a como lo haría un hacker, sólo que a diferencia de este último, el cracker realiza la intrusión con fines de beneficio personal o para hacer daño.

    El término deriva de la expresión "criminal hacker", y fue creado alrededor de 1985 por contraposición al término hacker, en defensa de éstos últimos por el uso incorrecto del término. Se considera que la actividad realizada por esta clase decracker es dañina e ilegal.

    Por ello los crackers son criticados por la mayoría de hackers, por el desprestigio que les supone ante la opinión pública y las empresas, son aquellos que utilizan sus conocimientos técnicos para perturbar procesos informáticos (Haffner yMarkoff, 1995). Pueden considerarse un subgrupo marginal de la comunidad de hackers.

    En ocasiones el cracking es la única manera de realizar cambios sobre software para el que su fabricante no presta soporte, especialmente cuando lo que se quiere es, o corregir defectos, o exportar datos a nuevas aplicaciones, en estos casos (sólo en estos casos) en la mayoría de legislaciones no se considera el cracking como actividad ilegal.

    En muchos países existen crackers mercenarios que se ofrecen para romper la seguridad de cualquier programa informático que se le solicite y que contenga alguna protección para su instalación o ejecució