Impresión

Capítulo 2:

Las nuevas tecnologías de telecomunicaciones

En el capítulo anterior presentamos un panorama histórico del desarrollo de las tecnologías que sentaron las bases de los primeros medios de telecomunicación eficientes. En el presente abordaremos la implementación de las principales tecnologías para comunicación desde mediados de siglo hasta la actualidad, como son fibras ópticas, tecnología digital, satélites geoestacionarios y de órbita baja, entre otras. Expondremos el desarrollo de algunos componentes de la electrónica como el tubo de vacío, el transistor y los circuitos integrados que sentaron las bases para la miniaturización y digitalización del equipo de telecomunicaciones, asi como su confluencia con la computación. Nos referiremos a las microondas y su aprovechamiento en transmisiones inalámbricas de gran actualidad como la radiotelefonía movil celular, los satélites para comunicaciones y las redes de comunicaciones personales. También haremos una introducción al concepto de redes digitales integradas cuyo objetivo es la transmisión de voz, datos e imágenes por una misma línea.

La revisión de las anteriores tecnologías, algunas de las cuales iniciaron un acelerado desarrollo desde mediados de siglo, nos permitirá entrar en el capítulo 3 al estudio del mercado de las telecomunicaciones, cuya estructura ha sido influída fuertemente por dichas tecnologías.

En las últimas décadas, las telecomunicaciones han experimentado un inusitado desarrollo tecnológico, principalmente por la contribución de la microelectrónica, la óptica, ciencia de materiales, la ciencia del espacio, la computación e informática, entre otras. Cada una de estas áreas ha proveído a las telecomunicaciones de distintos soportes tecnológicos: mayor capacidad de transmisión, mejores materiales conductores, diversificación de interconexión, capacidad de manejo y transferencia de diferentes signos, señales e imágenes, simultáneamente. Aqui nos referiremos principalmente a dos áreas que han ejercido un impacto contundente en las telecomunicaciones: la electrónica o microelectrónica y la computación.

Electrónica

Desde mediados de siglo, la electrónica se convirtió en parte intrínseca de las modernas telecomunicaciones, al grado que hoy es difícil determinar donde empiezan y donde terminan algunos componentes electrónicos o de telecomunicación.

La electrónica creó un sin fin de elementos electrónicos como interruptores, resistencias, aislantes y transformadores, que fueron interconectados con tubos de vacío para producir sistemas completos de comunicaciones. En sus inicios, esos sistemas se montaban en mástiles de madera y más tarde se colocarían en artefactos de metal. El tubo de vacío, inventado en 1906 por Lee De Forest para transmitir y amplificar señales eléctricas, tuvo una influencia crucial para el desarrollo de las comunicaciones por radio y televisión. Sin embargo, mostró serias limitaciones de funcionamiento cuando se usó en máquinas más complejas como las computadoras y cuando se juntaban varios paneles, la probabilidad de que un tubo fallara era muy grande, por lo que para inicios de los cuarenta ya se trabajaba para reemplazarlo por dispositivos más pequeños como el transistor, cuyo tamaño original era 100 veces menor que el tubo de vacío.

El transistor

Para 1947, con la invención del transistor en los Laboratorios Bell en Estados Unidos, se inició una asombrosa carrera por la miniaturización del equipo transmisor y receptor de telecomunicaciones. Sus características de no emisión de calor y bajos requerimientos de energía, permitieron abrir el camino a sistemas telefónicos compactos y eficientes.

El transistor es un dispositivo compuesto por materiales conocidos como semiconductores por sus especiales propiedades eléctricas, tales como el germanio, silicio, selenio y arseniuro de galio. Usando un pequeño cristal de silicón, los científicos de Laboratorios Bell en Estados Unidos, descubrieron que el cristal podía reaccionar a la corriente eléctrica casi de la misma manera que el tubo de vacío. Los primeros modelos de transistores no eran más grandes que un grano de arena, por lo que al sustituir los voluminosos y pesados tubos de vacío, el transistor marcó el camino hacia la masificación en el uso de la computadora y aparatos electrónicos como cámaras de televisión y receptores portátiles. Igualmente, los sistemas de conmutación telefónicos, al utilizar el transistor, reemplazaron a los dispositivos electromecánicos que producen ruido y son afectados por el polvo. La reducción masiva del peso y volumen de los equipos electrónicos, facilitó el desarrollo de la astronáutica y telecomunicaciones vía satélite. [1] Fue tal su trascendencia que sus inventores, los científicos norteamericanos John Bardeen, Walter Brattain y William Shockley recibieron el Premio Nobel de física en 1956 por su contribución al desarrollo de los semiconductores.

Circuitos integrados

El transistor fue solamente el primer paso de la vertiginosa miniaturización, ya que después de medio siglo de iniciada esta tendencia tecnológica, continúan lográndose asombrosos descubrimiento con ese mismo objetivo. Hacia 1958 la electrónica se transformó realmente en microelectrónica con la creación del circuito integrado, cuyo propósito principal es la integración a escala.

Un circuito integrado normal, construído comúnmente a base de silicio, consta de una pequeña placa de tamaño variable -cuyo estándar es de 25,41 mm por 12,7 mm- que contiene millares de transistores y otros circuitos elementales. La densidad y capacidad de los circuitos ha venido multiplicándose exorbitantemente. A inicios de los sesenta se consiguió integrar doce circuitos (pequeña escala) en una pastilla o chip de silicio; para finales de esa década fueron 100 (media escala); a principios de los setenta se dió la integración a gran escala con 1000; y, a fines de esa década se colocaron 50 mil circuitos lógicos llamados digitales que son usados en los ordenadores o computadoras. [2]

No obstante la alta capacidad de integración lograda hace quince años, con los desarrollos de los circuitos digitales existe la impresión de estar cada vez frente al inicio de una nueva fase de la integración. Es maravilloso constatar que si bien es cierto que para 1987 un circuito contenía más de un millón de transistores (en comparación de uno en 1959), esa integración se aprecia modesta en relación a la que se pretende obtener para el año 2000, que podrá ser de mil millones. Los semiconductores de hoy contienen complejos circuitos integrados que se adaptan con facilidad para usos múltiples que abarcan desde juguetes, relojes, calculadoras, procesadores de textos, hasta sistemas expertos que diseñan aviones. Sin los circuitos integrados y la amplia variedad de tecnología de estado sólido desarrollada desde hace 25 años sería poco probable que tuviéramos satélites para comunicaciones, sistemas de centrales electrónicas y toda la capacidad de transmisión que hoy poseen las redes.

Por su versátil aplicación, el desarrollo y fabricación de circuitos integrados ha pasado a ser una de las industrias más dinámicas y competidas en Estados Unidos, Japón, Suecia, la Comunidad Europea, Inglaterra, Alemania, Francia y Holanda. En febrero de 1988 por ejemplo, se tenían registrados 3,244 diseños de circuitos solamente en Estados Unidos, 1,376 en Japón y 25 en Alemania Federal. En los dos primeros países existen regiones y ciudades enteras cuya actividad central es la investigación, innovación y manufacturación de semiconductores. [3]

Microelectrónica y computación

La microelectrónica y la computación han evolucionado en forma

paralela. El más contundente impacto que ha tenido la electrónica es precisamente en la tecnología de la computación. Precisamente, la evolución de las computadoras modernas está asociada al desarrollo de los principales componentes de la electrónica. Así, la primera generación de computadoras electrónicas estuvo acompañada por los tubos de vacío, la segunda por el transistor, la tercera por los circuitos integrados, la cuarta por la integración a muy grande escala y la quinta por la ingeniería del conocimiento. [4]

Si bién es cierto que con los tubos de vacío las primeras computadoras realizaron las funciones vitales de encendido y apagado necesarios para desarrollar las actividades de cómputo; también resultaron ser muy costosas y su gran volumen las hacían imprácticas, pues, ocupaban el espacio completo de una habitación y necesitaban para su mantenimiento grandes sistemas de refrigeración y aire acondicionado. Así, cuando en 1946 fue conectada la ENIAC (integrador y calculador numérico electrónico, siglas en inglés) nadie pensaba, ni siquiera los ejecutivos del gigante empresarial de las computadoras, IBM (International Business Machines), que la fabricación de pequeñas microcomputadoras llegaría a penetrar masivamente el mercado no sólo de las grandes y pequeñas empresas sino el de millones y millones de hogares en todo el mundo. Mientras que la ENIAC costó 2 millones de dólares (a precios de 1987), pesaba 30 toneladas y contenía alrededor de 70 mil resistencias y 18 mil tubos al vacío; hoy una microcomputadora es parte de los implementos caseros que ocupan un reducido espacio sobre un escritorio o se acomoda en un teléfono portátil que puede cargarse en el bolsillo. Todas las funciones de un microprocesador están integradas en chips milimétricos y cuestan desde 200 dólares. El primer chip microprocesador, el Intel 4004 de 1971, realizaba por ejemplo, las mismas funciones de computación que la ENIAC. [5]

Posteriormente, con la introducción del transitor no sólo cambió la faz de la electrónica sino de la computación, cuya segunda generación se identifica con su incorporación. El transistor otorgó gran poder de cómputo en una fracción de la medida y costo de los tubos de vacío, asi como menor mantenimiento, mayor velocidad, mejoramiento de la programación y alta capacidad de almacenamiento e interacción entre computadoras. La primer computadora completamente transistorizada, la TRADIC (Transistorized Airborne Digital Computer) se construyó en los laboratorios Bell de Estados Unidos. Las computadoras de hoy a diferencia de las de transistores que todavía eran pesadas e imprácticas, integran las funciones de múltiples transistores en una placa de silicón llamada chip que adquirió el nombre de circuito integrado.

Con el desarrollo de los circuitos integrados y los cambios en programación, se dió paso a la tercera generación de computadoras. La reducción en la medida de los componentes y la aplicación de los circuitos integrados permitió el almacenamiento de múltiples programas en una sola computadora. Otra característica de las computadoras de la tercera generación fue el desarrollo de equipos centrales o supercomputadoras y minicomputadoras. Los primeros fueron utilizados para almacenar y procesar montos masivos de información y ser accesados por computadoras más pequeñas localizadas en puntos remotos, que harían posible la edición electrónica de periódicos locales, la publicación de revistas a miles de kilómetros de distancia y el acceso a reportes de los mercados de valores. Lo que distinguió a estos dos tipos de equipo de cómputo no fue tanto el tamaño sino la capacidad de almacenamiento, que hoy es obsoleto puesto que algunos de los equipo centrales de los sesenta no poseen ya la capacidad de las minicomputadoras de hoy.

La cuarta generación de computadoras tomó ventajas con los microcircuitos que fueron desarrollados más completamente en los sesenta. En la siguiente década los microcircuitos funcionaron como unidades de procesamiento en la computadora, razón por la que a éstas se les conoce también como microprocesadores y es la característica más evidente de la cuarta generación. Los microcircuitos son dispositivos diminutos que incrementan significativamente la capacidad y poder de las computadoras. Un microprocesador de inicios de los ochenta, por ejemplo, contenía 100 mil transistores y al instalarse en las computadoras dió como resultado las microcomputadoras, cuyos precios razonablemente bajos hicieron posible que un consumidor con ingresos promedio los empezaran a utilizar para usos personales, por lo que su denominación común es la de computadoras personales.

La quinta generación de computadoras se obtuvo poniendo la tecnología y el software en la frontera de la inteligencia artificial. El gobierno japonés fue quien impulsó en los ochenta el desarrollo de estos aparatos que reúnen todas las tecnologías de punta en la fabricación del chip: memorias, procesamiento paralelo, software, sistemas de visualización y reconocimiento del habla. Son las máquinas inteligentes que oyen, hablan y piensan.

La inteligencia artificial o sistemas expertos son paquetes de software que incorporan reglas de decisión y conocimiento desarrollados por expertos en diferentes campos. Son diseñados para imitar lo más posible la inteligencia humana o formas de razonamiento. Se componen de una base de conocimientos a partir de la cual se aplican las reglas de razonamiento a los conocimientos almacenados, y un dispositivo o interfaz que sirve para comunicarse con el hombre. Por ello, las computadoras son capaces de reconocer la voz, realizar diagnósticos médicos, prescribir tratamientos, ayudar a tomar decisiones en negocios, hacer traducciones, estacionar automóviles, etcétera.

La computadora atinadamente se ha definido como una especie de síntesis o condensación de múltiples creaciones culturales: lenguajes escritos, sistemas numéricos, lenguajes matemáticos, física de estado sólido, electricidad, magnetismo, óptica y ciencia de materiales, entre otras.

Telecomunicaciones y computación

A principios de la década de los sesenta las comunicaciones y la computación eran todavía actividades separadas. Las primeras redes de cómputo entre varios usuarios se constituyeron inicalmente enlazando unidades centrales de proceso a través de líneas telefónicas.

La convergencia de la computación y telecomunicaciones fue posible gracias a la conversión digital de los sistemas de telecomunicaciones y los adelantos de la microelectrónica. Esto significa que el equipo de almacenamiento y procesamiento (computación) y transmisión de datos (telecomunicaciones) emplean el mismo idioma a través de códigos binarios, que es el lenguaje digital universal que ha posibilitado la convergencia de voz, imagenes e información en una sola red y con ello la estrecha interrelación de diversas industrias como las de computación, radiodifusión, electrónica y telecomunicaciones.

En los sistemas digitales, las señales telefónicas para televisión y servicios de información, se convierten, mediante el uso de los códigos binarios (pulsaciones de 0 y 1), a señales idénticas o lenguaje común. Aquí lo importante es la presencia o ausencia de una pulsación, no su volumen o la forma exacta que tome. Por ello es posible enviar cualquier señal por una misma línea. En los sistemas análogos, la transmisión se efectúa de acuerdo a un patrón contínuo de ondas que siguen los cambios de una señal vocal o de otra señal. Esto es adecuado para conversaciones telefónicas ordinarias, pero no para transmisión de datos a alta velocidad. Asimismo, una señal analógica, al ser amplificada, también amplifica las distorsiones o ruidos que se recogen en la transmisión. [6]

La digitalización es la base para el despliegue de las redes integradas, que proporcionan conectividad de extremo a extremo en las redes para apoyar una amplia variedad de servicios, a los cuales los usuarios tienen acceso mediante un conjunto de interfaces. El Comité Consultivo Internacional de Telefonía y Telegrafía (CCITT) de la UIT inició en 1966 los primeros estudios para normar el funcionamiento de redes digitales. Posteriormente se descubrió que estos sistemas tenían la capacidad de manejar una gama de servicios en forma simultánea. Los análisis se consolidaron hasta 1984 y se vió que la red digital integrada (RDI) evolucionaría a partir de la red telefónica por ser la más grande e interconectada en el mundo, se basaría en el tipo digital y se integraría entre áreas de conmutación y transmisión.

Con las RDI, idealmente, es posible llegar a todos lados y recibir todo tipo de informaciones, se dispone de telefonía, acceso y consulta a bancos de datos, telex, telemetría, televisión por cable, correo electrónico, videotex, telesupervisión y un sin fin de servicios de información. [7]

Aunque hay concenso sobre las ventajas que representa digitalizar la red, la instalación de esta tecnología se ha visto retrasada por muchos factores. En principio por temor a que los costos de la alta inversión que representa cambiar todo el equipo analógico a lo largo de una red ya establecida, sean cargados a los usuarios. También hay reservas por la falta de una norma común internacional. Los esfuerzos por la estandarización se han hecho por regiones, los más importantes son de la Comunidad Europea, el grupo de países del Sureste Asiático y el de América del Norte. Otros temores se refieren al grado de aceptación social por la pérdida de empleos, posibles problemas legales por el amplio alcance de la red digital para monitorear a las personas (cuyo ejemplo más sencillo es la capacidad que tienen los aparatos telefónicos, que al enlazarse con otros pueden identificar a qué persona y número se está llamando), y el creciente empobrecimiento psicosocial por el reemplazo que haran las telecomunicaciones digitales del contacto personal. [8]

Hasta los años setenta, antes de la microelectrónica, las redes telefónicas tenían solamente capacidades limitadas. Las centrales telefónicas públicas eran instaladas en enormes edificios y tenían que ser presionadas con fuerza para que desplegaran las más básicas funciones de transmisión, proveer tono de llamada, hacer conexiones, transmitir señal de ocupado, y desconectarse al terminar la llamada.

Los microprocesadores con capacidad de memoria se instalaron en las centrales telefónicas y en equipos de conmutación reemplazando a los sistemas electromecánicos, tal como los procesadores de texto desplazan a las máquinas de escribir y los sistemas de almacenamiento electrónico a los archivos.

El uso de redes de bases de datos se generalizaron durante los ochenta con la digitalización y con ello se accedió a información flexible y a bajo costo. Los países que iniciaron la introducción de la tecnología digital fueron: Japón 1984, Inglaterra 1985, Estados Unidos 1986, Francia 1986, Alemania Federal 1987. Actualmente, existen miles de servicios de información para grandes empresas, para realizar actividades de educación e investigación, para la industria, la agricultura, tiendas de autoservicios, líneas aéreas, cadenas hoteleras, consorcios televisivos, periódicos, la banca y servicios financieros, entre otros. En Francia, que inició a principios de los ochenta la comercializaron de las redes digitales, [9] tuvo un éxito rotundo con su sistema Kioske que ofrecía más de dos mil servicios mejorados de telecomunicaciones para 1982, y que pasaron a 17 mil para principios de los noventa. [10]

En la ciudad de Baltimore, Estados Unidos desde 1991 se instalaron sistemas de computadoras móviles que envían información sobre la red telefónica celular sin usar canales de voz. Mediante esta tecnología se transmiten paquetes de información, usando bandas separadas de las de voz. Brinda servicio a compañías de transportación terrestre de pasajeros, cuyas unidades móviles envían y reciben información usando una terminal de computo móvil conectada al radio receptor. En 1992 también la compañía sueca Ericsson lanzó al mercado modems portátiles inalámbricos para comunicación de datos. Es una terminal del tamaño de una aparato telefónico celular que logra comunicaciones bidireccionales entre computadoras lap top o terminales industriales portátiles y una computadora central o base de datos. Sus aplicaciones incluyen: correo electrónico, localizador de personas, manejo de carga y descarga de mercancías, manejo de mensajería móvil y comunicación inalámbrica de datos. [11]

En cuanto al uso de las computadoras en las telecomunicaciones, tenemos que las compañías telegráficas también usan equipos de cómputo para controlar sus propias funciones técnicas. Una unidad de control de cómputo, de acuerdo con programas almacenados, conecta líneas entre una oficina, maneja el rol de llamadas, descubre mensajes en espera para ser conectados, examina encabezados o títulos de mensajes para determinar su prioridad, ordena el destino del tráfico, etcétera. Asimismo otra de sus funciones más importante en estas mismas empresas telegráficas es la de sincronizar el tiempo entre el transmisor y receptor. La instalación de computadoras en las oficinas telegráficas elimina el tiempo de demoras de entrega de mensajes; revisan el estado de todos los mensajes almacenados con una frecuencia de uno por segundo y han recortado el tiempo de transmisión entre oficinas, de uno y dos segundos, lo que originalmente tomaba uno o más minutos.

Las compañías telefónicas dependen para el desempeño de sus funciones comunes de equipo de cómputo diseñado específicamente para manejar las cuentas de los suscriptores, la realización de diagnósticos y mantenimiento de la red; les brindan auxilio en el control de llamadas telefónicas, su contabilización y enrutación. Gracias a ellas se ofrecen una enorme variedad de servicios, tales como servicio de voz que incluye marcación, llamada activada en tres sentidos y mensajes controlados por voz. Con estos servicios, es común, por ejemplo, que los suscriptores programen sus aparatos telefónicos para llamar al número de su casa simplemente diciendo la palabra "home", o al restaurante diciendo "I'm hungry"; se conectan con un tercero solamente diciendo "three way conference" y el nombre del tercero. [12] La AT&T en Estados Unidos a finales de 1994 introdujo un servicio de marcación directa (del cliente a los operadores de AT&T) para solicitar llamadas de larga distancia por cobrar que ya no requieren llamar primero a las compañías telefónicas locales para que realicen la conexión con los operadores de larga distancia de AT&T. Esta misma compañía, desde principios de 1990 empezó a establecer verdaderas redes globales mundiales operadas mediante procesadores de cómputo de alto desempeño y con software especial propiedad de AT&T que la enlazaron con compañías del mismo ramo de Europa, Asia y Australia a través de una red de señalamiento especial. Esto permite que el tráfico sea trasmitido a cualquiera de los países en esos continentes como si fuera una red de larga distancia normal de AT&T. Además, proporcionan servicios a empresas transnacionales que establecen sus comunicaciones entre sus diferentes filiales tan fácilmente como hacer llamadas locales, con la ventaja adicional de que la facturación se hace en una sola moneda.

La computadora ha evolucionado hasta convertirse hoy en día, no solamente en un dispositivo de almacenamiento y procesamiento de información, sino en un medio propiamente de comunicación. Es un dispositivo que brinda multiples servicios combinando funciones de cómputo, correo electrónico, fax y modem. Usuarios comunes y corrientes pueden darle uso, como simple contestadora telefónica o hasta como medio de enlace entre infinidad de usuarios. El caso de Internet es ilustrativo de la capacidad de interacción que se ha obtenido utilizando la capacidad de cómputo y las redes de telecomunicaciones.

Internet es la red de datos de mayor alcance en el mundo con más de 25 millones de usuarios y experimenta un crecimiento impresionante. Actualmente incluye más de dos millones de supercomputadoras host conectadas a más de 20 mil redes individuales en 63 países que se duplica cada año con un crecimiento promedio mensual fuera de Estados Unidos de 9.4%. Un ejercicio de extrapolación con tasas publicadas por la Internet Society, mostró que el número de usuarios excederá la población humana proyectada en el mundo para inicios del nuevo siglo. [13] El sistema cada día se vuelve más complicado, por los usuarios personales, instituciones de educación y empresas que se incorporan a las supercomputadoras que sirven a áreas locales. El sistema es alimentado por el Stanford Research Institute que cada tres meses recibe nombres a través de los equipos host. Cada ocasión recibe entre 20-30% más réplicas que la vez anterior. [14]

La capacidad de las computadoras como medios de comunicación no es sólo desplegada por equipos inmóviles (minicomputadoras o computadoras personales), sino por equipos portátiles que incorporan similares capacidades. Ericsson lanzó a principios de 1992 modems portátiles inalámbricos de menos de 500 gramos de peso y del tamaño de un aparato celular para la comunicación de datos. Esta pequeña placa hace posible la comunicación bidireccional entre computadoras portátiles y terminales industriales portátiles enlazadas a una computadora central o base de datos. La comunicación entre computadoras móviles tiene diversas aplicaciones, como: correo electrónico, localizador de personas, manejo de carga y descarga de mercancías, manejo de mensajería y comunicación inalámbrica de datos. [15] Estas máquinas híbridas teléfono-computadora-fax pueden cargarse como si fuera un portafolios, con la ventaja que pueden realizar operaciones financieras y comerciales desde la casa, el automóvil o la oficina.

Las redes telemáticas

El término telemática fue acuñado por los franceses Simon Nora y Alain Minc [16] para describir la confluencia de las telecomunicaciones con la computación y la televisión. A partir de este término se han producido otros como teleconferencia, telemercadeo, teleconmutación y telemedicina. Las redes telemáticas de alta capacidad y acceso masivo permiten interactuar a distancia mediante equipos informáticos y líneas telefónicas.

En muchas redes de telecomunicación de la actualidad es difícil detectar las fronteras de los componentes propiamente de telecomunicación y de computación. Ha llegado a tal grado la integración de ambas tecnologías que las capacidades de procesamiento de información pasan rápidamente a ser parte común de las telecomunicaciones. En las telecomunicaciones tenemos claramente a la telefonía básica y el télex y en los segundos se ubican al software de aplicación y los sitemas expertos. De la combinación de ambos se han obtenido una amplia gama de servicios telemáticos dirigidos principalmente a la transmisión de datos y texto.

Hasta hace algunos años se hablaba del reto que representaba para las grandes empresas de telecomunicaciones llevar servicios telemáticos a millones de hogares del mundo. A principios de los ochenta se produjeron experimentos de teletextos en el hogar; algunas cadenas periodísticas en Estados Unidos ya realizaban planes para que los suscriptores residenciales recibieran noticias e informes de bancos y tiendas a través de sus televisores. Hoy, no solamente se reciben noticias y se conectan los usuarios a su sucursal bancaria, sino que pueden recibir ediciones electrónicas de periódicos completos e incluso acceder a los tableros de boletines electrónicos que llegan a los editores y reporteros.

Las redes telemáticas adquiren inusitada relevancia por la posibilidad de manejar a través de ellas información masivamente, sin importar fronteras geográficas o políticas. Su capacidad de almacenamiento, procesamiento y transmisión brinda acceso inmediato a la información, que es componente insustituible de cualquier actividad económica, cultural y social en la actualidad.

Los servicios que más comúnmente se prestan a través de las redes telematicas son: facsimile a distancia o fax, que es la reproduccion impresa de un texto por medio de un sistema electrónico; videotexto, que son sistemas interactivos para la transmisión de textos o gráficas almacenados en bases de datos computarizadas a través de la red telefónica o la televisión; el correo electrónico; las redes y los bancos de datos; teleconferencia, televenta, transferencia electrónica de fondos, telebanco, guía telefónica electrónica, telemedicina, entre otros.

El soporte de los flujos de datos transfronterizos son las redes de transmisión, terrestres o vía satélite, que han hecho del comercio de información y el equipo para su procesamiento una de las actividades comerciales más dinamicas de la economía de los países avanzados. El impacto que han ejercido, por ejemplo, en los servicios (financieros, turísticos, profesionales, educativos) ha sido determinante para su comercialización a escala internacional.

Asimismo su aplicación a industrias tradicionales como la textil y maquinaria las ha hecho más dinámicas y competitivas, ya que ahora se realizan diseños y manufacturación a distancia asistidos por computadora. El rubro en el que mayor impacto han tenido es el financiero, cuyas operaciones nacionales e internacionales instantáneas son inconcebibles sin el uso del videotexto. Por medio de las redes telemáticas se concretan transacciones económicas y financieras cotidianas que permiten en gran parte la competitividad de los grandes consorcios internacionales.

Sin embargo, también producen efectos no deseados por el incontrolable flujo de datos transfronteras y la teledetección, que comúnmente los gobiernos no pueden controlar y se convierten en amenazas latentes de la autonomía de los países, dado que pueden colocar información crítica nacional en manos de agentes externos.

El fácil manejo de información electrónica ha provocado importantes impactos políticos, sobre todo porque cada vez es más difícil ocultar acontecimientos o información que muchas veces no conviene a los intereses de grupos políticos o gobiernos. Es ya muy conocido los efectos que tuvieron el manejo de medios electrónicos en los momentos críticos en Panamá en 1987, en China en 1989 y en Rusia en 1991. En Panamá, el fax, las computadoras personales y los boletines electrónicos ayudaron a organizar en 1987 la oposición al presidente Manuel Antonio Noriega. En junio de 1989 estos medios y las redes de datos fueron usados extensivamente para llevar información referida al movimiento pro-democracia dentro y fuera de China. Atinadamente, las transmisiones por fax fueron denominadas en ese entonces como los posters de pared de los estudiantes chinos.

Sin embargo, quizá el mayor impacto que han tenido las redes telemáticas en la opinión pública mundial en los últimos años fue su manejo durante los acontecimiento de agosto de 1991 en Rusia. A través de los satélites de comunicaciones se enviaron al mundo las imágenes del intento de golpe de estado en ese país, y en agosto 19 empezaron a aparecer mensajes en los boletines de cómputo de muchos países de Occidente, que desde Moscú decían "He visto los tanques con mis propios ojos. Espero seguir comunicándome durante los siguientes días". Al día siguiente la carta que el presidente Boris Yeltsin leyó desde un tanque enfrente del edificio del Parlamento Ruso apareció inmediatamente en los mismos boletines. En total, en agosto 21 de ese año pasaron más de 13 mil mensajes entre Moscú y Helsinki a través de la red Relcom que tal vez no fue considerada por las autoridades rusas como medio de masivo de información para ser intervenida como ocurrió con la televisión. [17]

Asimismo, el registro electrónico financiero en las bolsas de valores internacionales se ha convertido en una especie de pulso económico y político vital de muchos países. Las bolsas de valores al registrar y publicar, gracias a las conexiones instantáneas a escala internacional, las operaciones financieras más importantes de un país, muestran a los agentes económicos, los gobiernos y la opinión pública internacional, la situación no nada más económica, sino política y social de un país. Esto se convierte en un momento dado en una arma de dos filos, pues cuando los movimientos bursátiles apuntan a la alza se desatan efectos económicos favorables en cadena; pero cuando es al contrario, los efectos son quizá más desvastadores y llegan a amenazar la estabilidad de economías nacionales enteras, que caen en cuestión ya no de días sino de horas.

El espectro radioeléctrico y las microondas

En los últimos años, las modernizaciones del sistema telefónico y las telecomunicaciones avanzan a pasos agigantados también gracias a la explotación tecnológica de las microondas y las fibras ópticas. Aunque las microondas se empezaron a utilizar desde la segunda guerra mundial, fue hasta hace dos décadas que inició su más cabal aprovechamiento.

Los avances de la telecomunicación inalámbrica están asociados al descubrimiento y explotación de la radiación electromagnética, que es energía radial con forma de ondas invisibles que se propagan por el espacio y la materia. La radiación es óptimamente utilizada para transmisiones electrónicas (u otros usos), dentro del espectro radioeléctrico en diferentes longitudes e intensidad. Por ello, el espectro se ha dividido en nueve bandas [18] y en diferentes longitudes e intensidad. Cada banda cubre una década de frecuencia, o sea el número de ondas radiadas que pasan por cierto punto en determinado tiempo (estos son los Hertz). La longitud de onda del espectro útil abarca de los tres mil metros a un milímetro en ruta descendente. [19]

Las microondas son ondas de radio generadas a frecuencias muy altas a través de un tubo oscilador llamado magnetrón. A diferencia de la longitud de 3,200 metros que alcanzan las ondas en la frecuencias bajas del espectro, las microondas obtienen longitudes que van de los 100 centímetros a un milímetro. Además de usarse en la radiodifusión, radiotelegrafía, televisión, satélites, tienen aplicaciones en intervenciones quirúrgicas, laboratorios de física, hornos de uso industrial y doméstico, combaten plagas, etcétera.

La emisión de microondas para telecomunicaciones se realiza a través de torres transmisoras, instaladas en línea visual en puntos elevados a distancias entre 30 y 50 kilómetros; se enfocan en haces direccionales, pueden reflejarse en aviones, naves marítimas, patrullas de policía, carros de bomberos y otros objetos. Utilizan repetidoras para reforzar las señales periódicamente. Comúnmente se emplean dos y cuatro antenas en cada estación para recepción y retransmisión.

El uso de las microondas ha sido históricamente controvertido. No obstante que su localización en el espacio atmosférico impide su apropiación física, la sobreexplotación y saturación de las bandas de transmisión es un problema siempre presente.

Para preveer la explotación irracional del espectro y el uso indiscriminado de equipo, se han establecido normas técnicas internacionales para controlar el uso de frecuencias y artefactos por los particulares. Aunque estas reglas tienen como objetivo evitar el caos en el uso de las microondas, su violación es un problema latente, sobre todo por aquellas empresas o gobiernos que tienen capacidad tecnológica y poder suficiente para dominar en un momento determinado el espectro radioeléctrico, traspasando incluso las fronteras nacionales sin autorización de los gobiernos. Tal es el caso del equipo que emplea el proyecto T.V. Martí de Estados Unidos que envía desde 1990 sonido e imagen a la televisión cubana, aún cuando el gobierno de este país no admite dichas transmisiones.

En épocas de guerra las microondas son cruciales por la alta capacidad transmisiva y por la ventaja de no tener que emplear cables conductores. En la primera guerra mundial se usó el radioteléfono trasátlántico para las comunicaciones con los barcos navieros y mercantes, después que los cables que unían a Alemania y Gran Bretaña fueron cortados al estallar el conflicto en 1914. Durante la segunda guerra mundial, la tecnología de microondas sirvió de base para el radar. [20] Las primeras instalaciones del radar eran limitadas y poco confiables; conforme los militares exigieron mejor definición y certeza hacia el final de las hostilidades, los tecnológos fabricaron equipo que permitía blancos precisos, usando las partes más altas del espectro. [21]

Durante la guerra del Golfo Pérsico en 1991, el espectro radial sirvió de cauce para controlar, mediante computadoras enlazadas a satélites, poderosos artefactos de guerra como los misiles teledirigidos. Los aliados emplearon redes de satélites para vigilar las comunicaciones y movimientos de las fuerzas iraquíes, para localizar a los aviadores derribados en el desiertos, así como para orientar a sus aviones, barcos y fuerzas de tierra. Los alcances de los satélites espías dejan pasmado a cualquier persona: se especula que el Big Bird del Pentágono estadounidense leía los titulares del diario ruso Pravda y los números de placas de los automóviles en la Plaza Roja, cuando aquéllo era una fortaleza.

Las microondas también son el medio para que a través de los satélites artificiales, y no precisamente en épocas de guerra, se tenga acceso a información sobre cuestiones como instalaciones y posesión de armamentos, espionaje, investigación de la tierra e interacción educativa a distancia.

La irreflenable explosión tecnológica para el aprovechamiento del espectro electromagnético ha alcanzado tal magnitud que vivimos diariamente en un mar lleno de energías anormales producidas por infinidad de aparatos electrónicos: relojes digitales, cables de alta tensión, televisores, teléfonos celulares, portones automáticos, hornos de microondas, cámaras de circuito cerrado. Las consecuencias de esto aún están por conocerse. Algunos experimentos han mostrado que pueden impactar negativamente en la salud pública. Ya se han detectado algunos casos de enfermedades provocadas por radiaciones tolerables. En España, se descubrió que los embriones de pollos durante la formación de su sistema nervioso y corazón no se desarrollaron completamente después de ser expuestos brevemente a un campo electromagnético muy similar al generado por terminales de video. [22] Estos y otros fenómenos anormales detectados en relación directa con el uso de radiaciones de intensidad variable debieran ser ya motivo de serias investigaciones. En breve tendremos que solicitar que, así como se monitorea el aire de las grandes urbes para registrar los niveles de partículas contaminantes que flotan en el aire, también se monitoreen los niveles de radiación en zonas de alta densidad de transmisiones inalámbricas.

Las microondas son el soporte de dos de las formas de transmisión de mayor éxito en la actualidad: las comunicaciones vía satélite y la radiotelefonía móvil celular, que a su vez han evolucionado hacia las redes de comunicación personales, cuya base técnica primordial es la no supeditación a redes de cable inmóviles.

Los satélites

El afán por ampliar las comunicaciones y abarcar todos los rincones de la tierra, ha conducido a los científicos a buscar medios cada vez más complejos para lograrlo. La exploración terrestre y atmosférica no ha sido suficiente. El objetivo de ir más arriba, a 36 mil kilómetros de altura sobre el nivel del mar se ha cumplido. Allí la ubicación es idónea para que los satélites artificiales logren, con unos cuantos artefactos, llevar comunicaciones e información a todos los puntos de la tierra.

Las redes satelitales se componen por una serie de estaciones terrenas conectadas entre sí por medio de satélites colocados en una órbita espacial que retransmisten señales por microondas a través del espacio atmosférico. El equipo instalado [23] dentro de un satélite recibe las señales enviadas desde una estación terrestre, las amplifica y transmite a otra estación terrestre que las distribuye por pares de cables, cables coaxiales, guías de onda, fibras ópticas y sistemas de repetición de microondas.

La transmisión espacial fue concebida con más de diez años de anticipación al lanzamiento de los primeros satélites artificiales. En 1945 el científico inglés Arthur C. Clarke propuso el uso de un satélite terrestre para radiocomunicación entre varios puntos de la superficie terrestre. Clarke [24] sugirió en una publicación el diseño de una nave espacial tripulada que podría lanzarse como un cohete. La nave se posicionaría a una altitud aproximada de 35,900 kilómetros, giraría junto con la tierra (sería síncrono) y habría receptores y equipo de transmisión terrestres que llevarían las señales a una determinada parte de la tierra. Fue tal el acierto del científico inglés que su mecanismo es en esencia el mismo con el que funcionan los sistemas satelitales geosíncronos de la actualidad. En su memoria, la órbita geoestacionaria se conoce también como Cinturón de Clarke.

El lanzamiento de los satélites artificiales inició el cuatro de octubre de 1957, cuando la Unión Soviética envió al espacio el Sputnik I, con el objeto de realizar experimentos biológicos; pesaba 80 kilogramos y gravitó alrededor de la tierra hasta el cuatro de enero de 1958. Inmediatamente el Congreso Norteamericano aprobó el otorgamiento de fondos para proyectos satelitales, y al año siguiente ese país lanzó el Explorer I, de 14 kilogramos de peso, que permaneció en órbita cinco años.

La generación de satélites comerciales para comunicaciones empezó en 1965 con el lanzamiento del satélite "El pájaro madrugador" (Intelsat I), que medía sólo 71 por 58 centímetros, pesaba 39 kilogramos y tenía capacidad para manejar 250 llamadas telefónicas internacionales. Este sería el primero de una serie de doce propiedad de Intelsat.

La fuerte demanda de servicios satelitales, han propiciado la multiplicación de satélites a tal grado que la órbita espacial sobre el ecuador, donde se estacionan, está casi saturada. Muy pronto diferentes países empezaron a lanzar satélites, a través de empresas privadas o los propios gobiernos. Canadá fue el tercero en disponer satélites para comunicaciones, pero únicamente a nivel nacional. En 1972 puso en servicio el primero de cinco generaciones llamados Anik [25]. Entre otros países que cuentan con sistemas de satélites domésticos están: Brasil, Francia, Rusia, India, Japón, China, Australia, Gran Bretaña, Italia, Panamá, México y Argentina.

Los satélites artificiales cubrieron regiones donde la comunicación por redes terrestres es prácticamente imposible, o sumamente costosa. Se vencieron las barreras físicas que aislaban zonas enteras de los cinco continentes, como desiertos, montañas, océanos, selvas y polos glaciares. Se incorporaron a las comunicaciones localidades de Asia, Africa y América que de haberse esperado a tender redes alámbricas no tuviesen, aún a la fecha, acceso a circuitos de canales para telefonía, telegrafía y televisión.

La ventajas de utilizar satélites de comunicaciones radica en que eluden las barreras naturales, permiten planear su uso a requerimientos reales, acortan los tiempos de instalación y complementan las redes terrestres para transmisiones internacionales, posibilitando el cubrimiento total de la tierra. Con ellos se pueden establecer transmisiones con equipo móvil desde puntos geográficos donde no existe infraestructura para telecomunicaciones.

Los satélites son insensibles a las distancias. Todos los enlaces se hacen aproximadamente a 71,800 kilómetros (satélites geosíncronos) donde quiera que se ubiquen los artefactos emisores y receptores. Se necesitan unas cuantas estaciones terrestres movibles de acuerdo a las necesidades, y la señal las sigue. Es común ver que cuando ocurre un acontecimiento relevante en cualquier parte del mundo, inmediatamente se desplazan plataformas móviles llevando antenas parabólicas y equipo de transmisión, que envían señales para televisión de determinado fenómeno en vivo a todos los rincones de la tierra.

Algunas desventajas en las transmisiones satelitales es que están sujetas a demoras de propagación, se debilitan con las lluvias intensas, nieve y manchas solares que afectan a las estaciones terrestres, también sufren interferencias de radio, microondas y aeropuertos. Además los costos de fabricación y lanzamiento son muy elevados. Los ahorros de costos una vez que están en órbita, son máximos cuando la distancia entre los puntos excede a 1,800 kilómetros comparados con los de microondas y los 190 kilómetros con los de fibras ópticas [26].

Los satélites pueden ser ubicados a distintas distancias de la tierra y a velocidades diferentes de la de rotación, lo que permite coberturas locales, regionales y globales. De acuerdo a estos requerimientos se han desarrollado diferentes generaciones de satélites de comunicaciones. [27] Veamos los más conocidos.

Los satélites de órbita elíptica (high earth orbit, HEO), fueron los primeros satélites diseñados especialmente para comunicaciones. Se desplazan a diferente velocidad de la tierra, y se alejan y acercan a ella en diferentes momentos. Tardan 12 horas en completar una revolución y ofrecen mejores condiciones de uso en las telecomunicaciones cuando su altitud es de 40 mil kilómetros.

Los satélites geoestacionarios (geosyncronus earth orbit, GEO) se ubican sobre el ecuador a 36 mil kilómetros de la tierra y viajan a su misma velocidad (de ahí su nombre de síncronos), por lo que parecen estar estacionados o inmóviles y completan su recorrido en 24 horas. Tienen una área de cobertura aproximada de ocho mil kilómetros que proporciona una capacidad visual hasta de una tercera parte de la tierra. Tres satélites de este tipo, colocados en forma equidistante, pueden transmitir instantáneamente señales de radio o televisión a casi el área completa de la tierra. Son los más utilizados para servicios de transmisión de datos, señales de televisión y telefonía, requieren de grandes estaciones terrenas fijas, pero también sirven para comunicaciones con unidades móviles como las de navegación aérea, marítima y terrestre. La órbita geoestacionaria es la más congestionada ya que en ella están colocados no nada más satélites para comunicaciones, sino otros de aplicaciones diversas como metereológicos, experimentales y militares.

Otra generación de satélites son los de órbita terrestre baja (low earth orbit, LEO). Estos han provocado serias controversias sobre todo con los consorcios y países que tienen satélites GEO para comunicaciones, pués aducen que sus objetivos no están bién definidos y entrarán a hacerles una fuerte competencia [28] sobre todo por los bajos costos que están manejando en comparación con los GEO.

Los LEO se ubican a una altitud entre 900 y 1300 kilómetros y son no geoestacionarios, o sea, registran una velociad distinta a la de rotación de la tierra. Su área de cobertura terrestre es de un radio promedio de 5,500 kilómetros, por lo que tienen que colocarse muchos microsatélites con trayectorias diferentes para brindar cobertura local, regional y mundial. Dado que los satélites LEO, (que admiten en frecuencias inferiores a un gigahertz), necesitan estaciones terrenas sencillas, terminales portátiles, así como antenas y fuentes de poder reducidas, (a diferencia de los geoestacionarios que requieren infraestructura terrena pesada), permiten una gran flexibilidad en su uso, pues pueden aprovecharse varias decenas de microsatélites de acuerdo a las necesidades de cobertura o servicio.

Estos satélites se encuentran en vías de experimentación. Aunque pueden utilizarse en zonas que ya cuentan con comunicaciones desarrolladas, por la facilidad de transportación de las antenas receptoras, son aprovechables también en zonas que carezcan por completo de sistemas de telecomunicaciones. Han despertado gran interés en diferentes empresas que ven la posibilidad de usarlos para redes de telecomunicaciones y brindar servicios de información inalámbricos no nada más a grandes consorcios sino a usuarios particulares (para viajes de negocios o placer, operadores de botes, ingenieros y médicos que trabajan en áreas remotas). Otros creen que podrán solucionar problemas de comunicación en áreas rurales con servicios deprimidos, en zonas cuya ubicación está a dos horas de donde existe teléfono, donde vive aproximadamente la mitad de la población mundial.

Los proyectos LEO, encabezados por consorcios norteamericanos, se iniciaron incluso antes de que el Congreso de ese país asignara frecuencias en mayo de 1994. Veamos cuales son esos proyectos: [29]

Proyecto 21: Es propiedad de Inmarsat y parte de la cuarta generación de satélites de este organismo. Su costo es de más de un mil millones de dólares.

Iridium: Son una constelación de 66 satélites. Su diseño incluye líneas intersatélite y el costo es de 3.4 mil millones de dólares. Son propiedad del consorcio formado por 18 empresas de diferentes países encabezados por Motorola. [30]

Globalstar: Se compondrá de 24 a 48 satélites con cobertura global y en Estados Unidos. Está diseñado con código de acceso por división múltiple (CDMA code division multiple acces) y con un costo de 1.8 mil millones de dólares [31].

Odyssey: Es una constelación de 12 satélites que orbitarán en tres planos. Su costo es de 1.3 mil millones de dólares y es propiedad de TRW, Inc. un consorcio de manufacturación de tecnología aeroespacial.

Elipso I y II: Comprende de 6 a 18 satélites en dos planos para proveer servicio nacional solamente. Su costo son 180 millones de dólares y son propiedad de 6 compañías norteamericanas de comunicaciones móviles, manufactureras de electrónica y tecnología inalámbrica y del banco inglés Barclays.

Aries: Son 48 satélites de órbita polar en cuatro planos. Su costo es de 292 millones de dólares y es propiedad de inversionistas privados y empresas de comunicaciones de Estados Unidos.

Teledesic. Son 840 satélites del tamaño de un refrigerador basados en el diseño de Strategic Defense Iniciative. Su costo es de 9 mil millones de dólares y es propiedad de Craig McCaw, William Gates, McCaw Development y Kinship Partners.

La participación de grandes consorcios multinacionales de telecomunicaciones, junto con grupos financieros, manufactureros electrónicos y de cohetes, entre otros, refleja el alto grado de mercantilización de los satélites, que inicialmente fueron concebidos para solventar necesidades básicas de comunicaciones.

De acuerdo a la cobertura que tienen en tierra, existen tres sistemas de satélites para comunicaciones: 1. Internacionales: Intelsat, Intersputnik, Inmarsat; 2. Regionales: Eutelsat que cubre a los países europeos, Arabsat a países árabes, Panamsat a países americanos; 3: Nacionales: Telesat de Canadá, Telecom de Francia, Satcom, Comstar, Westar, SBS, Gstar de Estados Unidos, Palapa de Indonesia, Molnya-3, Statsionar, Loutch de Rusia, Sakura, CS y Ayame de Japón, Radugae e Insat de India, Morelos y Solidaridad de México y Nahuel de Argentina, entre otros.

Además de los satélites para comunicaciones, existe otra amplia gama de satélites con diferentes objetivos, entre ellos: metereológicos, de exploración marina, oceanográfica, [32] terrestre, del espacio, astronómica, [33] con misiones biológicas y médicas. Aproximadamente cinco mil se encuentran en órbita, de los cuales 175 ocupan la órbita geoestacionaria para servicios comerciales y uso doméstico. [34]

México cuenta con un sistema de satélites para comunicaciones desde 1985. El Morelos I entró en órbita en junio de 1985 y el Morelos II en noviembre de 1989. El primero fue reemplazado en 1994 por el Solidaridad I y en ese mismo año se lanzó el Solidaridad II. El Morelos II saldrá de órbita en 1998. A partir de 1994, con el lanzamiento de los Solidaridad, el sistema tendrá una cobertura más amplia que el Morelos. Está programado para enviar más de 50 mil llamadas telefónicas simultáneamente, o más de 50 canales de televisión y datos a altas velocidades; permitirá la comunicación con unidades del autotransporte de carga y pasaje durante su tránsito por las carreteras, así como para las embarcaciones de cabotaje que navegan por los litorales mexicanos . Se prestarán servicios a los países del Caribe centroamericano, Venezuela, Colombia, Ecuador, Perú y diferentes ciudades de Estados Unidos como Los Angeles, San Francisco, Houston, Dallas, Chicago, Nueva York, Washington, Miami, Tampa e incluso a Toronto, Canadá. Enviará también señales especiales a Buenos Aires, Montevideo y Santiago de Chile. Con el Morelos II y el Solidaridad se cubrirá la demanda de señales de México y esas regiones hasta el año 2006 [35].

Indudablemente el sistema satelital con más alcance, aunque muy cuestionado por operar como monopolio estadounidense, es Intelsat. Se fundó en agosto de 1964 como una empresa de riesgo. Su creación se previó en la Ley de Satélites de Comunicaciones de 1962 de Estados Unidos, que ordenó el establecimiento de un sistema de comunicaciones por satélite comercial, pero no prescribió claramente los asuntos para las comunicaciones nacionales. [36]

Para la fundación de Intelsat firmaron únicamente once países; inició con el lanzamiento del Early Bird pero fue tal la aceptación que para 1980 ya poseía cerca de 400 estaciones terrestres con 12 satélites. En 1987 Intelsat contaba con 113 países signantes, 17 satélites que unían a aproximadamente 170 países, distintos territorios y corporaciones alrededor del mundo a través de 739 estaciones terrestres. [37]

Las principales normas que lo rigen son: Intelsat es dueño de los satélites y del segmento espacial de frecuencias y las estaciones terrenas son propiedad de cada uno de los países; los estados miembros se comprometen a utilizar los satélites de Intelsat para comunicación con el extranjero; los países tienen, en Comsat (el órgano administrador), un número de votos proporcional al porcentaje del capital total invertido en los servicios de satélites.

Con base en la Ley de Comunicaciones por Satélites de 1962, el Congreso de Estados Unidos creó Comsat y se adjudicó, a ese país, el monopolio de las comunicaciones internacionales por satélite. Fue creada como corporación privada, con un propósito nacional. Su estructura fue resultado de un fuerte debate congresional y público alrededor de la Ley de Comunicaciones por Satélite. Hubo dos posiciones contrarias para que se formara como empresa pública o como empresa privada. Finalmente resultó un híbrido público-privado. [38] Comsat funge como intermediario entre consorcios norteamericanos de comunicación (American Telephone and Telegraph -AT&T-, General Telephone and Electronics -GTE-, Radio Corporation of America -RCA-) y el gobierno de Estados Unidos, es responsable del diseño, desarrollo y mantenimiento del segmento espacial del sistema global de telecomunicaciones. [39]

La radiotelefonía móvil con tecnología celular

La tecnología celular dió un giro de 180 grados al concepto de comunicaciones atadas a una red fija al conducir transmisiones por radio frecuencias gracias a la computación y radiocomunicaciones. Con esta tecnología se consolidó el concepto de redes móviles personalizadas.

Las primeras redes móviles de comunicaciones para servicios regulares se introdujeron en diferentes países desde mediados de los cuarenta. En Estados Unidos ocurrió en 1946 y en Alemania en 1958. Sólo reducidos grupos hacían uso de esas redes; hombres de negocios, la policía, en servicios médicos de emergencia y brigadas de bomberos.

El servicio móvil convencional usa canales de radio en dos direcciones para conectar el vehículo al sistema telefónico. El circuito de radio establece una ruta para poder hablar desde un vehículo y una antena conectada a la red telefónica. Una antena central sirve a una ciudad mediana y las comunicaciones pueden ser mantenidas en el radio, generalmente reducido, que abarca la antena. Este servicio convencional tiene muchas desventajas: a) un limitado número de radio frecuencias disponibles para proveer el servicio; b) caracteristicas inferiores de transmisión proporcionadas porque solamente se destina una antena distante; c) interferencias de otros vehículos en el mismo canal; d) altos costos del servicio.

La diferencia entre los teléfonos celulares y la inicial generación de teléfonos móviles, de automóviles, es que los primeros funcionan siempre, en tanto que en los segundos la comunicación se interrumpe cuando se interpone alguna barrera física entre la antena central y el vehículo receptor y se va perdiendo a medida que el receptor se aleja de la estación base.

En el sistema celular, las llamadas viajan sobre ondas de radio a estaciones estratégicamente situadas en una zona geográfica dividida en pequeñas células, cuyos radios oscilan entre 1.5 y 15 kilómetros. En cada célula hay una estación básica de baja potencia conectada al receptor-transmisor de una estación central de conmutación que se ocupa de conectar la señal de radio a la red telefónica pública. Pero, no se limita a eso, también pasa la señal de un receptor a otro a medida que el vehículo viaja de célula en célula. Una computadora central localiza automáticamente la ubicación de cada teléfono móvil, asigna los usuarios a los canales radioeléctricos disponibles en determinada célula, reasigna frecuencias automáticamente a medida que el aparato receptor va de célula en célula, y además se encarga de tomar datos de cada llamada para su facturación.

Un sistema celular puede fácilmente manejar 50 mil llamadas por hora, en cambio el antiguo sistema movil solo manejaba unos centenares. Hoy gracias a la introducción de tecnología digital también se utilizan para transmitir datos, télex, videotexto y fax móviles. Incluso, actualmente a través de los modem integrados a las computadoras portátiles, hacen posible el envío y recepción de datos en movimiento.

Las comunicaciones celulares no necesitan una infraestructura terrestre tan onerosa como la de redes fijas, que requieren abrir zanjas por el suelo y cuyos costos son crecientes. Son más rápidas de instalarse porque llevan servicios de telecomunicaciones por radio frecuencia y las inversiones más importantes son las estaciones de base de radio. Los precios de los aparatos receptores también tienden a reducirse e incluso en zonas donde existe la infraestructura celular inexplotada hasta se regalan.

La tecnología celular ha tenido un éxito abrumador. Las predicciones sobre su crecimiento no se detienen en números. En Japón se introdujo en 1979 para usuarios selectos, y para finales de 1991, con el incremento de la competencia había 1.25 millones de suscriptores (con un total de 10 millones de unidades vendidas en su mercado). [40] Para mediados de 1993 había en alrededor de 70 países más de 30 millones de teléfonos celulares. [41] En norteamérica se dispuso del servicio en 1983 y para principios de 1994 había 14 millones de suscriptores. [42] En Canadá inició en 1985 y para 1991 tenía 800 mil usuarios. En Latinoamérica, [43] para principios de 1992 había cerca de 300 mil suscriptores, pero para agosto de 1994, solamente en México se registraron 380 mil.

Resulta riesgoso siempre dar cifras actualizadas, pues es tan vertiginoso el crecimiento que día a día son rebasadas. Predicciones muy optimistas apuntan que para 1995 podría haber en ochenta países cerca de 42 millones de personas usando teléfonos celulares. La compañía transnacional Ericsson calcula que puede alcanzarse esa cantidad pero hasta el año 2000. [44] La revista The Economist [45] predijo que podría llegar a 60 millones para ese mismo año.

Las razones de lo disparado de las cifras son varias. Bell Atlantic Personal Communications asegura que habrá una masiva migración de suscriptores alámbricos a inalámbricos dentro de los siguientes 15 años, por la alta eficiencia de la telefonía movil, las ventajas por la producción masiva de equipo terminal asi como por ineficiencia del servicio de telefonía básica. [46] En Japón, para marzo de 1994 había 2.46 millones de suscriptores celulares (con un crecimiento arriba de 2%) y se esperaba que para marzo de 1995 se incremente en 1.5 millones, con el cambio de las condiciones de participación de otras empresas nacionales en ese mercado. [47]

Los gobiernos han observado enormes presiones para el otorgamiento de permisos de operación de bandas para telefonía celular. En 1984 la Comisión Federal de Comunicaciones de Estados Unidos tuvo que asignar por sorteo los permisos en virtud de que había alrededor de 1000 solicitantes para cubrir las 734 áreas en que se dividió el país para el servicio. Para agosto de 1991, la explosiva demanda agotó la capacidad de infraestructura radial en grandes áreas metropolitanas como Los Angeles, Chicago y Nueva York que contaban para 1992 con más de 500 mil suscriptores y en Londres donde operaba un sistema congestionado con aproximadamente 750 mil usuarios. [48] En respuesta a la alta demanda y al congestionamiento del sistema celular análogo se ha buscado introducir la tecnología digital y uso de mayor ancho de banda.

La mayoría de las redes de telefonía celular actuales operan en frecuencias entre 800 MHz y poco menos de 1 GHz -unos 200 MHz del ancho del espectro. Se estima que el ritmo de crecimiento exigirá que en las ciudades más grandes para fin de siglo se ocupen 1.5 GHz extras en el espectro de radio para acomodar a los nuevos usuarios. Aunque el problema es que el espectro es finito y gran parte ya está utilizado por estaciones de radio y televisión, los militares, servicios de emergencia y transmisores de microondas, principalmente, ya se tiene una solución. En primer lugar las células pueden hacerse más pequeñas para optimizar el espectro y en segundo lugar la generación de telefónos celulares análogos está siendo reemplazada por aparatos digitales cuya ventaja es que hacen más eficiente el espectro. Es decir, mediante el lenguaje digital o código binario se pueden enviar al menos diez veces más llamadas sobre la misma senda del espectro de radio y por consiguiente se aumenta la capacidad de llamadas que puede manejar una célula.

En Estados Unidos hasta mediados de 1993 todavía no se resolvían los problemas para la operación de un sistema común. [49] En Europa, donde la estandarización del sistema celular digital se veía mucho más difícil por la diversidad de normas empleadas, varias regiones ya adoptaron un sistema compatible.

El éxito de las comunicaciones móviles personalizadas, ha hecho que se exploren otras alternativas a la telefonía celular, como las redes de comunicaciones personales (PCN [50])y los sistemas inalámbricos por satélites.

Las PCN difieren del sistema celular en que operan en una banda de frecuencias más alta (1.8 GHz) mientras que el celular transmiten en el rango de 800 GHz. El rango de las PCN es más corto (un kilómetro), lo que significa que las frecuencias de radio pueden ser reutilizadas más veces y por tanto pueden entrar más clientes a las redes. [51] Los aparatos receptores para estos sistemas serán más pequeños, por eso se les llama teléfono de bolsillo y podrán servir como artefactos inalámbricos en interiores y móviles en exteriores. Los dos sistemas usan transmisiones por radio, torres transmisoras y aparatos receptores pequeños.

En Estados Unidos los servicios de comunicaciones personales (PCS) podrían utilizar transmisores en microcélulas y proporcionar más de 20 veces la capacidad de un aparato celular convencional. Se espera igualmente que las tarifas por este servicio sean más bajas y que compitan con el servicio que prestan las compañías telefónicas locales. [52]

Este servicio, [53] ha sido catalogado como la red de telefónos móviles para las masas y probablemente entre en operación en 1997 o 1998. Fue concebido más barato y popular que el celular. El costo promedio mensual del servicio por suscriptor será de 20 a 30 dólares, mientras que el servicio celular cuesta entre 50 y 60 dólares. Se ha proyectado que para el año 2000 podrá haber 6.2 millones de suscriptores de PCS, contra 70 millones para el celular. Los costos iniciales por obtención de la licencia será entre 10 y 15 billones de dólares, mientras que la celular no costó nada. Se calcula que los costos de construcción de las redes (que podrían ser entre 21 millones para las zonas más pequeñas, hasta 420 millones para otras como Nueva York) será casi la mitad de la celular. Podrá haber de 3 a seis operadores en cada ciudad una vez que inicie el servicio (para telefonía celular se otorgaron sólo dos). [54]

Las fibras ópticas

En la búsqueda por encontrar materiales conductores capaces de soportar transmisiones de altas frecuencias, resistentes a temperaturas variables y condiciones ambientales, los ingenieros y tecnológos desde mediados de siglo empezaron a desarrollar nuevas tecnologías de transmisión. Los cables de hierro que llevaban mensajes telegráficos no pueden soportar las frecuencias necesarias para acarrear a largas distancias las llamadas telefónicas sin pasar por severas distorsiones. Por ello las compañías telefónicas se movieron hacia los pares de cables de cobre. Aunque éstos cables trabajaron y continúan trabajando bién en algunas redes, para los años cincuenta, las centrales telefónicas de las rutas más ocupadas ya estaban muy saturadas, por lo que necesitaron mayor ancho de banda que el de los regulares pares de cables de cobre podían aguantar. Por ello las compañías telefónicas empezaron a usar cables coaxiales.

En los sesenta, con la emergencia de la industria de televisión por cable, que es un fuerte consumidor de ancho de banda, además de los cada vez mayores requerimientos de capacidad de conducción de las empresas telefónicas, en los años sesenta el consumo de ancho de banda aumentó considerablemente. Se recurrió al cable coaxial y a la tecnología digital que solventaron el requisito de mayor eficiencia en el uso del ancho de banda. Sin embargo, simultáneamente se empezaron a buscar otros conductores que usaran alguna forma de comunicación óptica, esto es, usando luz en vez de microondas. [55]

Los primeros estudios sobre las fibras ópticas para aplicaciones de transmisión se llevaron a cabo a mediados de los sesenta. En el laboratorio de la Standard Telecommunications de ITT en Inglaterra, C.K. Kao y G.A. Hockham postularon que las ondas de luz se podían guiar por vidrio, o sea, fibra óptica, donde la luz que entra por un extremo de un hilo se refleja repetidamente en las paredes de la fibra con un ángulo crítico bajo y sale por el otro extremo con el mismo ángulo, igual que si pasara por una tubería. En 1970 los científicos de Corning Glass Works en Nueva York convirtieron la idea en realidad. Los ensayos de campo se empezaron en 1975 y en 1978 se habían instalado 1000 kilómetros de fibra óptica por el mundo. [56]

Las fibras ópticas son guías de luz con un grosor del tamaño de un cabello humano, poseen capacidad de transmisión a grandes distancias con poca pérdida de intensidad en la señal y transportan señales impresas en un haz de luz dirigida, en vez de utilizar señales eléctricas por cables metálicos. Su capacidad multiplica la del cable de cobre, pues para una llamada telefónica se necesitan dos cables de cobre, pero un par de fibras ópticas pueden realizar casi 2 mil llamadas simultáneamente. Su alta capacidad de conducción no se pierde por curvas o torsiones, por lo que se utiliza para tender desde redes interurbanas hasta transocéanicas. Mientras que las redes de cobre toleran un máximo de 10 mil circuitos por cable, los de fibra óptica pueden tolerar hasta 100 mil. Los costos de obtener el cobre son infinitamente mayores que la obtención de la fibra óptica, cuya materia prima es muy abundante, pues el silicio se obtiene de la arena y su peso es de apenas 30 gramos por kilómetro. [57]

También, respecto de las comunicaciones por satélite ofrece algunas ventajas. Una conversación por cable entre Europa y América del Norte tiene un retraso aproximado de 65 milésimas de segundo, que no se llega a apreciar por las personas, pero si esa conversación se realiza por satélite, el retraso se multiplica por 10, convirtiéndose en más de medio segundo. Este retardo es visible cuando se realiza una entrevista de televisión por satélite.

Canadá fue uno de los pioneros en la instalación de redes de fibra óptica. En 1966, Bell Northern Research instaló un sistema de comunicaciones ópticas totalmente operativas en el Ministerio de la Defensa Nacional. También en 1981 se tendió una red rural, conocida como Proyecto Elie, en dos comunidades de la provincia de Manitoba donde no había ningún servicio de telecomunicación; y con la fibra óptica se llevaron a 150 hogares, servicios telefónicos, televisión por cable, radio en FM y videotexto. [58]

En 1983 en Estados Unidos ATyT terminó el primer circuito de fibra óptica de larga distancia entre Washington y Boston. En ese mismo año se instalaron 15 rutas de larga distancia en Inglaterra, Escocia y Gales. [59] Para 1980 había instalados 6 mil kilómetros de fibra óptica en el mundo que aumentaron a aproximadamente 160 mil hacia 1989.

Inicialmente las fibras ópticas se usaron solamente para conectar centrales telefónicas en áreas de mucho tráfico de las grandes ciudades. A medida que la tecnología de las comunicaciones avanzó, las fibras empezaron a penetrar en las redes de larga distancia. Ya se tienden en áreas locales entre las centrales telefónicas y el equipo de los clientes. Muchos nuevos edificios comerciales son cableados con fibra óptica para apuntalar las redes telefónicas y las redes de cómputo de alta velocidad. También ya se encuentran en las centrales telefónicas y los tableros de circuitos de conexión.

El ideal es que lleguen a todas las casas de los clientes del servicio telefónico y provean sobre la misma red de fibra óptica los servicio de voz y video.

Sin embargo, la real explotación de las fibras ópticas para transmisiones electrónicas y las transmisiones ópticas completas, que llevarán a mayores incrementos en las capacidades de las redes, están todavía en camino. [60] En el futuro cercano deberán desarrollarse mejores fuentes de luz y detectores de fibra de vidrio especial que incrementaran las capacidades de transmisión en un factor arriba de 1000. Los chips ópticos darán mayor velocidad a las computadoras y al equipo de comunicación.

La evolución de las redes de telecomunicación al ideal de redes completamente ópticas (con líneas con conexiones ultrarápidas y dispositivos de almacenamiento también ópticos), se vislumbra compleja. Asimismo, la homologación de los soportes tecnológicos para el establecimiento de lo que se ha denominado como autopistas de información o redes integradas ya no depende tanto de la capacidad de desarrollo tecnológico, sino más bién de factores económicos, políticos y regulatorios de organización y funcionamiento de las empresas de telecomunicaciones que analizaremos en los siguientes capítulos.


1 Ronald R. Thomas. Understanding telecommunications. USA, Tab Books Inc., 1989, p37-39. Regresar

2 Manuel Rodríguez Jiménez. Nuevas tecnologías de la información. Madrid, Questio, 1988, p13. Regresar

3 Véase el caso del Valle del Silicio ubicado en San Francisco California, en Tom Forester. La sociedad de alta tecnología. México, Siglo XXI Eds., 1992. Regresar

4 La explicación de las primeras cuatro generaciones de computadoras fueron tomadas de John R. Bittner, op. cit., p104-106. Regresar

5 Ibídem, p32-33. Regresar

6 Gobierno de Canadá, Canada External Affairs, 1985, p3. Regresar

7 Salvador Ramos González, "Red Digital de Servicios Integrados" (2a. parte), Voces de Telmex, III Epoca, año 28, México, D.F., abril de 1990, núm.335, p18. Regresar

8 Karl Josef Frensch, "ISDN: the bottom line adds up", Telcom Report 12, núm.2-3, Munich, 1989, p47. Regresar

9 Loc. cit. Regresar

10 U.S. Congress. Office of Technology Assessment. International competition in services. Washington, D.C., julio de 1987, p173. Regresar

11 El Financiero, marzo 30, 1992. Regresar

12 The Wall Street Journal, mayo 18, 1992. Regresar

13 A. Lyman Chapin, "The state of the Internet", Telecommunications, vol.28, núm.1, enero de 1994, p13-14. Regresar

14 Centre for the study of communications and culture. Communications Recent Trends, vol.13, núm.3, 1993, p7-8. Para un análisis más amplio, consultar Burkhard Luber. The world at your keyboard: an alternative guide to global computer networking. Oxford, Jon Carpenter, 1993. Regresar

15 El Financiero, marzo 30, 1992. Regresar

16 Simon Nora y Alan Minc. The computarization of Society. Cambridge, Massachusetts, MIT Press, 1980. Regresar

17 "Los mensajes fueron enviados a través de la cooperativa de cómputo Demos, cuya oficina se ubica a unas cuantas cuadras del Kremlin. El grupo fue establecido como una cooperativa de software para cómputo a principios de 1980. La red Demos fue establecida en agosto de 1990 y tiene terminales en 70 localidades en Rusia, así como en Helsinki y Finlandia. Los mensajes fueron recibidos en Helsinki y de ahí se retransmitieron a las redes de Europa y Estados Unidos". Walter S. Baer, "Technology's challeges to the First Amendment", Telecommunications Policy, vol.17, núm.1, enero-febrero de 1993, p5. Regresar

18 Paul K. Dizard Jr. La era de la información. México, Publigrafics, S.A., 1989, p52-56. Regresar

19 La frecuencias bajas son dos: la banda de muy baja frecuencia (very low frecuency VLF) abarca de tres a 30 MHz, el equivalente al rango de 100 a 10 metros; y la baja frecuencia (low frecuency LF) que va de 30 a 300 KHz. Las frecuencias medias (FM) se encuentran arriba de las bajas, entre 300 KHz y tres MHz; se usan para las transmisiones masivas por radio; por la gran cantidad de aparatos receptores que hay en todo el mundo no se les ha asignado otras funciones. La banda de alta frecuencia (high frecuency, de tres a 30 MHz, tiene posibilidades de alcance mundial, aunque funciona muy irregularmente ya que la propagación de las ondas depende de la geografía de los suelos, el clima, el horario, etcétera. Antes de que se inventaran los satélites y los cables submarinos se usaba para el servicio telefónico internacional. Esta banda ha sido asignada en muchos países a grupos de aficionados de Banda Civil.

La siguientes bandas del espectro son las de muy alta frecuencia (very high frecuency VHF), 30 a 300 MHz, y ultra alta frecuencia (ultra high frecuency UHF), 300 MHz a tres GHz. Aquí se ubican los canales de televisión y radio de frecuencia modulada y también se hacen transmisiones de radio móviles de policías, bomberos, taxis y telefonos de automóvil. Dentro de estas frecuencias se presta el servicio de telefonía movil celular.

Por último, están las bandas donde operan las microondas que se localizan en la parte mas alta del espectro, la banda de super alta frecuencia (super high frecuency SHF) de tres a 30 GHz, la extremadamente alta frecuencia (extremely high frecuency EHF) de 30 a 300 GHz, y el infrarrojo, luz visible o ultravioleta que abarca frecuencias de 10 GHz. Regresar

20 El transmisor del radar envía breves y poderosas explosiones de microondas. Esos estallidos de energía viajan por el espacio a la velocidad de la luz, a razón de 298,080 kilómetros por segundo. La sincronización de las señales es tal que un impulso ha viajado, por ejemplo, 320 kilómetros antes de que se haya trasmitido el estallido siguiente. Regresar

21 Paul K. Dizard Jr., op. cit., p56-57. Regresar

22 Robert Wood. Magnetismo. De la brújula a los imanes superconductores Madrid, McGraw-Hill/Interamericana de España, S.A., 1991, p173. Regresar

23 Un satélite se compone de varios subsistemas para su funcionamiento: antenas, comunicaciones, energía eléctrica, control térmico, posición y orientación, propulsión, rastreo, telemetría y comando y estructural, principalmente. Estos subsistemas permiten al satélite disipar calor, corregir movimientos, mantener el equilibrio, regular la temperatura, resistir al medio ambiente y poder comunicarse con la tierra. Rodolfo Neri Vela. Satélites de comunicaciones. México, McGraw-Hill/Interamericana, 1989, p25. Regresar

24 Consultar, op. cit. Regresar

25 Ibídem, p134. Regresar

26 Roy A. Layton, "questiondownEstarán los satélites en conflicto con las fibras ópticas o coexistirán?, en D.A. Demac. Trazado de nuevas órbitas. Cooperación y competencia en el desarrollo global de satélites. Barcelona, Reverté, 1988, p21-22. Regresar

27 J. Manuel Villalvazo, "Las comunicaciones móviles a través de los satélites de órbita baja en los países en vías de desarrollo", UIT, Américas Telecom 92, Acapulco, México, mayo de 1992, p97-101. Regresar

28 Dos firmas que prácticamente tienen puesto un pié en el mercado se oponen. Inmarsat (International Maritime Satellite Organization), la organización para comunicaciones satelitales marítimas controlada por 64 operadoras telefónicas, pretende expandir sus servicios a comunicaciones móviles terrestres y a buques marítimos. También el consorcio American Mobile Satellite Corp. (AMSC) obtuvo una licencia en 1990 para proveer el servicio móvil pero solamente en los Estados Unidos a partir de 1994. The Economist, marzo 28, 1992, p69. Regresar

29 Rob Frieden, "Satellites in the Wireless Revolution: the Need for Realistic Perspectives", Telecommunications, vol.28, núm.6, junio de 1994, p33-34. Regresar

30 Sprint, BCE Mobile (subsidiaria de Bell Canada Enterprises), Krunichev Enterprise y Chine Great Wall (dos manufactureras de cohetes), Nippon Iridium (un consorcio de 18 compañías japonesas manejadas por DDI Corp. operador de larga distancia y radio celular), STET (empresa portadora de comunicaciones celulares y por satélite), Mawarid Group (un grupo de inversionistas de Arabia Saudita), Muidiri Investment de Venezuela, United Communications Industry Co., y otros. Regresar

31 Sus propietarios son: Loral (manufacturero norteamericano de satélites, Qualcomm (desarrolla tecnología CDMA para acceso a radio celular), AirTouch (compañía inalámbrica norteamericana), la francesa Alcatel Space, Italian Aerospace, Dacom (compañía de larga distancia de Corea), Hyundai Electronic (manufacturera coreana), Vodaphone (compañía celular inglesa) y Deuschte Aerospace de Alemania. Regresar

32 En agosto de 1992, Estados Unidos y Francia lanzaron el satélite Topex-Poseidón, que escrutará los océanos y sus 1,460 millones de kilómetros cúbicos de agua para medir, durante cinco años, la altura de las olas, la dirección y velocidades de los vientos en su superficie, la potencia y la dirección de sus corrientes. Permitirá medir con una precisión de más o menos dos centímetros la altura del oceano mundial para saber dónde ocurren las olas más altas, los vientos más fuertes y los relieves del océano. El Día, agosto 12, 1992. Regresar

33 El equipo de astrofísicos de la Universidad de California descubrió las ondulaciones del universo (que explican el origen y evolución de los planetas, estrellas y galaxias), gracias al análisis de 300 millones de datos recopilados durante 12 meses por el satélite Explorador de la Radiación Cósmica de Fondo de la NASA. La Jornada, Suplemento Investigación y Desarrollo, , septiembre de 1992, p8. Regresar

34 Flor Alvarez Bobadilla, "El amanecer de las comunicaciones por satélite", Informa, México, D.F., año III, núm.9, p25. Regresar

35 La Jornada, marzo 15, 1991. En agosto de 1993 la SCT anunció el posible lanzamiento de un quinto satélite mexicano. Regresar

36 Véase Mathison Stuart y Philip M. Walker. Computer and telecommunications: issues in public policy. New Jersey, Prentice-Hall Inc., 1970, p8. Regresar

37 George A. Codding, Jr. "The ITU and the Future of Satellite Communication in the Pacific", en D.J. Wedemeyer and M.R. Ogden (eds.). Telecommunications and Pacific development: alternatives for the next decade. Honolulu, Elsevier Science Publishers B.V., 1988, p48. Regresar

38 Henry Goldberg, "International telecommunications regulation", en Glen O. Robinson. Communications for Tomorrow, Policy Perspectives for the 1980s. New York, Praeger Publishers, 1978, p166-167. Regresar

39 Ruth Gall, "Satélites artificiales, sus aplicaciones y consecuencias que de ellas se derivan", en Ruth Gall, et al. Las actividades espaciales en México: una revisión crítica. México, FCE, 1986, p30-31. Regresar

40 Ver Eric F. Ensor, "The Evolution Towards PCS"; Ryoji Kobayashi, "Prospects for Mobile Communications Techonlogy from Cellular to Personal Communications"; y, Arunas G. Slekys, "High Capacity Digital Cellular for Wireless Telephony", UIT, Américas Telecom, op. cit., p75, 76, 81 y 85. Regresar

41 The Economist, octubre 23, 1993, p5. Regresar

42 Telecommunications, vol.28, núm. 6, junio de 1994, p36. Regresar

43 En Venezuela el número de suscriptores celulares subió de aproximadamente 20 mil de finales de 1991 a aproximadamente 100 mil para finales de 1992. En Argentina en 1993 el total de suscriptores con servicio pasó de 45 mil en marzo a cerca de 95 mil para finales de ese año. Telecommunications, vol.28, núm.3, marzo de 1994, p64. Regresar

44 Christoph Dorrenbacher, "Mobile Communications in Germany. Economic and Social Impacts of a New Infrastructural Paradigm", Telecommunications Policy, vol.17, núm.2, marzo de 1993, p112. Regresar

45 Octubre 23, 1993, p2. Regresar

46 Christoph Dorrenbacher, op. cit. Regresar

47 Se prevee que diferentes compañías del ramo podrán tener sus propias redes móviles y no tener que arrendarlas de NTT, cuya filial para telefonía celular, DoCoMo tiene cerca de 60% del mercado. The Economist, diciembre 10, 1994, p64. Regresar

48 Arunas G. Slekys, "High Capacity Digital Cellular for Wireless Telephony", UIT, Américas Telecom 1992, op. cit. Regresar

49 Los diferentes estándares para la tecnología celular que están a discusión son: TDMA (time division multiple access). Es una norma digital apoyada por Cellular Telecommunications Industry con potencial para transportar seis veces más llamadas que el sistema análogo. CDMA (code division multiple access). Tiene potencial para llevar 20 veces más llamadas que el sistema análogo. Lo apoyan las compañías Ninex Corporation y Ameritech. E-DTMA (extended TDMA). Implica acomodar tantas llamadas igual que la tecnología CDMA, pero es compatible con TDMA. NAMPS (narrow advanced mobile phone service). Mejora el sistema análogo, fue diseñado por Motorola y podría triplicar el número de llamadas potenciales y retrasar la necesidad del mecanismo digital. Businessweek, enero 28, 1991, p47. Regresar

50 En Estados Unidos se les denomina Personal Communications Services (PCS), en Europa, Personal Communications Networks (PCN) y en Japón System of Personal Handy Phones (PHS). Regresar

51 Excélsior, noviembre 5, 1990. Regresar

52 Businessweek, abril 5, 1993, p56. Regresar

53 Businessweek, diciembre 5, 1994, p104. Regresar

54 Con el objetivo de que el mercado no se concentre en unos cuantos consorcios, como sucede con los servicios celulares, el Congreso ordenó a la Comisión Federal de Comunicaciones dar trato especial a grupos minoritarios (mujeres, compañías rurales, grupos de discapacitados) denominados Designed Entities. De una total de 2,074 licencias, casi la mital, 986, serán asignadas a dichos grupos, que podrán obtener un descuento de 25% mediante certificados de impuestos que difieren las ganancias, un plan de pago a 10 años y tasas de interés bajas. Las grandes compañías pueden tener 75% del capital y operar los sistemas de PCS, pero no pueden tener el control a través del voto en una Designed Entity. Businesseeek, octubre 10, 1994. Regresar

55 La luz y las microondas son formas de radiación electromagnética, difieren solamente por su frecuencia o sea la capacidad de transportar información. Un cable óptico con múltiples hilos de fibra óptica pueden transportar miles de señales de televisión, mientras que la norma en los cables coaxiales es de menos de cien canales. Regresar

56 Carl Q. Chirstol, "Búsqueda de una estructura estable regulatoria" en D.A. Demac. Trazado de nuevas órbitas, op. cit., p19-20. Regresar

57 Manuel Rodríguez J., op. cit., p51. Regresar

58 Canada External Affairs, op. cit., p9. Regresar

59 P. K. Dizard, op. cit., p51. Regresar

60 Lawrence Gasman. Telecompetition. The free market road to the information highway. Washington, D.C., Cato Institute, 1994, p14. Regresar