Salvar Internet

El ciberespacio se puede hacer más seguro del caos y el crimen que amenazan con abrumarlo. Pero la mayoría de las recetas para la seguridad y el orden vienen a un precio muy pronunciado: la pérdida de la potencia creativa de Internet.

Salvar Internet
Resumen.

Reimpresión: R0706B

El ganso de Internet ha puesto innumerables huevos de oro, junto con un número creciente de huevos podridos. Pero son los podridos los que ahora tientan los intereses comerciales, gubernamentales y de los consumidores a amenazar el poder creativo único de Internet. Las propiedades generativas de Internet seleccionadas de manera oportuna y casi accidental (su apertura técnica, facilidad de acceso y dominio, y adaptabilidad) se han combinado, especialmente cuando se combinan con las de la PC, para producir un entorno insuperable para experimentos innovadores. Sin embargo, esas mismas propiedades también hacen que Internet sea hospitalario para diversas formas de maldad: piratería informática, pornografía, spam, fraude, robo, depredación y ataques a la propia red. A medida que proliferan estos fenómenos indeseables, las empresas, los gobiernos y muchos usuarios encuentran una causa común para bloquear la arquitectura de Internet y PC en aras de la seguridad y el orden.

Las vulnerabilidades de seguridad de PC e Internet son una amenaza legítima. Sin embargo, las reacciones más probables, si no se evitan, serán al menos tan desafortunadas como los propios problemas de seguridad. Considere la creciente abundancia de «aparatos conectados», dispositivos cuyas funciones no pueden ser modificadas fácilmente por sus propietarios (piense en TiVo). Estos dispositivos toman las innovaciones de Internet y las envuelven en un paquete limpio y fácil de usar, lo cual es bueno, pero solo si Internet y la PC pueden permanecer lo suficientemente en el centro del ecosistema digital como para producir la próxima ronda de innovaciones y generar competencia. Las personas compran estos dispositivos por su conveniencia o funcionalidad y pueden apreciar el hecho de que son más seguros de usar (limitan el daño que los usuarios pueden causar por ignorancia o descuido). Pero se corre el riesgo de que los usuarios, al migrar a estos dispositivos, sin darse cuenta, cambien los beneficios futuros de la generatividad, una pérdida que pasará desapercibida incluso cuando la innovación desaparezca.


¿Crees que hay que salvar Internet?

Únase a la discusión aquí.

El famoso antagonista de dibujos animados de Warner Bros. Wile E. Coyote demuestra un principio fundamental de la física de los dibujos animados. Corre por un acantilado sin darse cuenta de su cornisa y continúa hacia adelante sin caer. El Coyote desafía la gravedad hasta que mira hacia abajo y ve que no hay nada debajo de él. Sus engranajes mentales cambian mientras contempla su situación. Luego: Splat.

Internet y el PC siguen una trayectoria similar. Fueron diseñados por personas que compartían el mismo amor por el retoque amateur que el Coyote y que trataban los problemas solo cuando surgieron, o los dejaron a los usuarios individuales para que los trataran. Este «principio de procrastinación», junto con un diseño basado en las contribuciones de cualquiera que se preocupara de colaborar, han provocado que Internet y la PC emerjan del ámbito de los investigadores y aficionados y ganen a redes y dispositivos de información mucho más cuidadosamente planificados y financiados.

Los éxitos desbocantes de Internet y la PC con el público en general los han colocado en posiciones de estrés y peligro significativos. Aunque la falta de una estructura centralizada en Internet dificulta evaluar la solidez de sus cimientos, hay fuertes señales de que nuestra red y nuestras computadoras están sujetas a abusos de formas que se han vuelto más profundas y prevalentes a medida que su popularidad ha crecido.

La bendición y la pesadilla principales de Internet y PC combinados es su generatividad: su accesibilidad a personas de todo el mundo —personas sin credenciales ni riquezas ni conexiones particulares— que pueden usar y compartir el poder de las tecnologías para diversos fines, muchos de los cuales no se habían anticipado o, de haberse anticipado, nunca se habría pensado que fueran valiosos.

La apertura que ha catapultado a estos sistemas y sus usos evolutivos a la prominencia también los ha hecho vulnerables. Enfrentamos una crisis de seguridad de PC y red, y no es meramente de naturaleza técnica. Se basa en algo mucho más fundamental: la capacidad de doble filo de los miembros del público de elegir qué código ejecutan, lo que a su vez determina lo que pueden ver, hacer y contribuir en línea.

La apertura que ha catapultado al PC y a Internet a la prominencia también los ha hecho vulnerables.

Las malas decisiones sobre qué código ejecutar (y las consecuencias de ejecutarlo) pueden hacer que los usuarios de Internet pidan que se salven de sí mismos. Un modelo para tentarlos se encuentra en los «electrodomésticos atados» actuales. Estos dispositivos, a diferencia de los PC, no pueden ser modificados fácilmente por sus propietarios ni por nadie que los propietarios conozcan; sin embargo, sus proveedores o proveedores de servicios pueden reprogramarlos en un instante (piense en TiVo, teléfonos móviles, iPods y PDA). Como dijo Steve Jobs al presentar el iPhone de Apple a principios de este año, «definimos todo lo que hay en el teléfono. No quieres que tu teléfono sea como un PC. Lo último que quieres es haber cargado tres apps en tu teléfono, y luego vas a hacer una llamada y ya no funciona. Se parecen más a los iPods que a los ordenadores».

Los aparatos anclados no pueden ser cambiados fácilmente por sus propietarios, pero sus fabricantes pueden reprogramarlos en un instante.

Si suficientes usuarios de Internet empiezan a preferir los PC y otros dispositivos diseñados siguiendo las líneas bloqueadas de los dispositivos conectados, ese cambio inclinará la balanza en un prolongado tira y afloja de un sistema generativo abierto a un cambio dramático a un sistema más estable y menos interesante que bloquea el statu quo. Algunas partes en los debates sobre el control de Internet aceptarán este cambio. Aquellos que deseen supervisar y bloquear el contenido de la red, a menudo con fines legítimos e incluso nobles, verán nuevas posibilidades de control que hasta ahora se les han escapado.

Para las empresas con modelos de negocio que dependen de atraer y comunicarse fácilmente con los clientes en línea, el auge de los dispositivos conectados es una amenaza. Significa que un nuevo guardián está en condiciones de exigir tributo antes de que los clientes y los proveedores puedan conectarse, un «2» discriminatorio dentro de «B2C».

Dos triunfos generativos: red y PC

Breve historia: El entorno de red de consumidores de principios de la década de 1990 no se parecía en nada a la Internet actual, ni evolucionó hasta convertirse en la Internet que tenemos hoy en día. Ya en 1995, la sabiduría convencional sostenía que la red global fusionada sería una combinación de las ofertas patentadas de la época, servicios como CompuServe, AOL y Prodigy. Sin embargo, esas empresas se extinguieron o se transformaron en negocios completamente diferentes. Fueron aplastados por una red de cables y cordeles construida por investigadores gubernamentales e informáticos, una que no tenía CEO ni plan maestro de negocios.

Los líderes de las redes propietarias pueden ser perdonados por no anticipar el auge de Internet. No solo no había ningún plan para la provisión de contenido en Internet, sino que había una hostilidad absoluta hacia muchas formas de este. La columna vertebral de Internet, operada por la Fundación Nacional de Ciencia de los Estados Unidos, tenía una política de uso aceptable que prohibía las actividades comerciales. Durante años, Internet siguió siendo un remanso, una serie de conexiones ad hoc entre universidades y laboratorios de investigación cuyo objetivo era experimentar con la creación de redes. Sin embargo, lo que crearon los desarrolladores fue un sistema generativo, abierto a cambios imprevistos por parte de audiencias grandes y variadas. Es esta generatividad la que ha provocado su gran éxito —e imprevisto—.

Originalmente, las aplicaciones de consumo no se encontraban en Internet, pero eso cambió en 1991, después de que los usuarios gubernamentales de Internet comenzaran a permitir interconexiones personales y comerciales sin pretextos de investigación de redes, y luego dejaron de pretender regular la red. Los desarrolladores de aplicaciones y destinos de Internet ahora tenían acceso a un público amplio e impulsado comercialmente. Los proveedores de servicios de red propietarios que se habían visto a sí mismos como ofrecer un paquete completo de contenido y acceso se convirtieron en simples rampas de acceso a Internet, desde donde sus usuarios se ramificaron hacia destinos de Internet que prosperaban rápidamente para sus programas y servicios. Por ejemplo, el Electronic Mall de CompuServe, un servicio de comercio electrónico destinado a ser el medio exclusivo por el cual los proveedores externos podían vender productos a los suscriptores de CompuServe, desapareció bajo la avalancha de sitios web individuales que vendían directamente a cualquier persona con acceso a Internet.

Los PC también empezaron lentamente en el mundo empresarial (incluso el nombre «ordenador personal» evoca un desajuste). Las empresas recurrieron por primera vez a los mainframes programados a medida, el tipo de paquete completo que IBM ofrecía en la década de 1960, para el que el software era una idea de último momento, o dependían de dispositivos de información como las máquinas de escribir inteligentes. Algunas empresas obtuvieron minicomputadoras programadas a medida y los empleados accedieron a las máquinas compartidas a través de estaciones de trabajo tontas utilizando redes de área local pequeñas y rudimentarias. Por lo general, las minicomputadoras ejecutan un puñado de aplicaciones designadas: nómina, cuentas por cobrar, cuentas por pagar y programas específicos de la empresa, como sistemas de gestión de casos para hospitales o programas de registro de cursos para universidades. No había muchas oportunidades para que los usuarios cualificados desarrollaran y compartieran nuevas aplicaciones innovadoras.

A lo largo de la década de 1980, el PC ganó fuerza de manera constante. Su capacidad para admitir una variedad de programas de una variedad de creadores hizo que su utilidad pronto superara a la de los dispositivos especializados como los procesadores de texto. Los procesadores de texto dedicados se crearon para funcionar de la misma manera durante toda la vida útil del producto, mientras que el software de procesamiento de textos para PC podía actualizarse o sustituirse por una aplicación de un competidor sin tener que reemplazar el propio PC. Este ecosistema de IT, compuesto por hardware fijo y software flexible, pronto demostró su valía.

Los PC presentaban algunos inconvenientes para las empresas: los documentos y otra información importante terminaban almacenados en diferentes equipos, y el backup en toda la empresa podía ser un verdadero quebradero de cabeza. Pero el precio era justo, y pronto se podía contar con las personas que ingresaban a la fuerza laboral para tener habilidades en procesamiento de textos y otras herramientas básicas de PC. A medida que surgió una serie de aplicaciones maduras, existía una razón para que a la mayoría de los trabajadores de cuello blanco se les asignara un PC, y para que un grupo cada vez más amplio de personas quisiera tener uno en casa. Es posible que estas máquinas se hayan comprado con un propósito, pero su arquitectura flexible permitió que se pudieran volver a desplegar rápidamente para muchas otras. Una persona que compró un PC para procesar textos podría descubrir las alegrías del correo electrónico, los juegos o la Web.

Bill Gates solía describir la visión de Microsoft como «un ordenador en cada escritorio». Esto puede haber reflejado un simple deseo de mover unidades (casi todos los PC vendidos significaban más dinero para Microsoft), pero a medida que la visión se hacía realidad en el mundo desarrollado, las implicaciones iban más allá de la rentabilidad de Microsoft. Ya sea que se ejecute Mac o Windows, una base instalada de decenas de millones de PC significaba que había tierra labrada en la que podía arraigarse el nuevo software. Un desarrollador que escribiera una aplicación no necesitaría convencer a la gente de que valía la pena comprar hardware nuevo para ejecutarla. Solo necesitaría persuadirlos para que compraran el software en sí. Con el advenimiento de los PC conectados a Internet, la gente solo necesitaría hacer clic en el enlace correcto y se podría instalar un nuevo software. El cumplimiento de la visión de Gates aumentó significativamente el potencial generativo de Internet y la PC, abriendo las compuertas a la innovación.

Beneficios de la generatividad: innovación y participación

La generatividad es la capacidad de un sistema para producir cambios imprevistos a través de contribuciones sin filtros de audiencias amplias y variadas. Como tal, la generatividad produce dos beneficios principales: el primero es un producto innovador: cosas nuevas que mejoran la vida de las personas. La segunda es la aportación participativa: la oportunidad de conectar con otras personas, trabajar con ellas y expresar la propia individualidad a través de esfuerzos creativos.

Los sistemas no generativos pueden crecer y evolucionar, pero ese crecimiento se canaliza a través de sus creadores: Sunbeam lanza una nueva tostadora en respuesta a la demanda anticipada de los clientes, o una antigua red propietaria como CompuServe añade una nueva forma de mensajería instantánea programándola por sí misma. Cuando los usuarios pagan por productos o servicios, pueden ejercer presión del mercado sobre las empresas para que desarrollen las mejoras o los cambios deseados. Este es un camino indirecto hacia la innovación, y cada vez hay más bibliografía sobre su principal limitación: un cuello de botella persistente que impide que las grandes empresas tradicionales desarrollen y cultiven ciertos usos nuevos, a pesar de los beneficios que podrían disfrutar con un gran avance.

Por ejemplo, el profesor de la Facultad de Derecho de Columbia, Tim Wu, ha demostrado que cuando los operadores de telefonía inalámbrica controlan qué tipo de teléfonos móviles pueden usar sus suscriptores, esos teléfonos suelen tener características indeseables y son difíciles de mejorar para terceros. Algunas compañías han obligado a los proveedores de telefonía a limitar los navegadores web de los teléfonos móviles a ciertos sitios aprobados por el operador. Han eliminado los temporizadores de llamadas en los teléfonos, aunque sería trivial implementarlos y son muy deseados por los usuarios, que desean controlar si han superado los minutos asignados para su plan mensual. Estas limitaciones persisten a pesar de la competencia entre varias compañías aéreas.

La razón por la que las grandes empresas muestran tanta inercia innovadora, según un marco teórico de Clayton Christensen, es doble: las grandes firmas tienen inversiones continuas en sus mercados existentes y en formas establecidas de hacer negocios, y las innovaciones disruptivo suelen capturar solo mercados menores o menos rentables, a primero. Para cuando las grandes empresas reconocen la amenaza, no son capaces de adaptarse. Pierden, pero el público gana.

Para que se produzca una innovación disruptiva, los recién llegados deben ser capaces de llegar a las personas con sus ofertas. Los sistemas generativos lo hacen posible. De hecho, permiten a los usuarios probar suerte en la implementación y distribución de nuevas ideas y tecnologías, llenando un vacío crucial que se crea cuando la innovación se lleva a cabo solo en un modelo lucrativo, especialmente en el que predominan las grandes empresas.

Considere formas novedosas de interacción comercial y social que han surgido de fuentes inesperadas en los últimos años. Las subastas en línea podrían haber estado maduras para ser arrancadas por Christie’s o Sotheby’s, pero el advenediza eBay llegó primero y se quedó. Craigslist, iniciada como una organización puntográfica por una sola persona, domina el mercado de la publicidad clasificada en línea. Ideas como correo electrónico gratuito basado en la Web, servicios de alojamiento para páginas Web personales, software de mensajería instantánea, sitios de redes sociales y motores de búsqueda de próxima generación surgieron de individuos o grupos pequeños que querían resolver sus propios problemas o probar algo limpio, en lugar de que las empresas se dieran cuenta de que había beneficios. para ser recogido.

Eric von Hippel, director del Grupo de Innovación y Emprendimiento del MIT, ha escrito extensamente sobre cómo rara vez las empresas aceptan mejoras en sus productos por parte de personas ajenas, incluidos sus clientes, incluso cuando podrían beneficiarse de ellas (véase «Clientes como innovadores: una nueva forma de crear valor», de Stefan Thomke y Eric von Hippel, HBR abril de 2002). En su trabajo, von Hippel argumentó ante las empresas racionales que los usuarios de sus productos pueden, y a menudo lo hacen, servir como innovadores disruptivo, mejorando los productos y, a veces, adaptándolos a propósitos completamente nuevos. Se les ocurren ideas antes de que haya una demanda generalizada y las reivindican lo suficiente como para que otros se interesen. Estos usuarios suelen estar encantados de ver compartidas sus mejoras. Cuando el interés aumenta lo suficiente, las empresas pueden intervenir y comercializar plenamente la innovación.

Por lo tanto, nos hemos instalado en un panorama en el que tanto las empresas amateur como las profesionales, pequeñas y grandes empresas contribuyen a grandes innovaciones. Los consumidores pueden quedar cautivados por un sofisticado videojuego de disparos en primera persona diseñado por una gran empresa en un momento y por una simple animación con un hámster bailando en el siguiente. Por lo tanto, no es de extrañar que Internet y PC hoy comprendan una fascinante yuxtaposición de software sumamente ambicioso diseñado y construido como un portaaviones moderno por un gran contratista, junto con applets increíbles que caben en un único disquete. OS/2, un sistema operativo creado como empresa conjunta entre IBM y Microsoft, absorbió más de 2.000 millones de dólares de inversión en investigación y desarrollo antes de que se desconectara, mientras que Mosaic, el primer navegador web gráfico para PC, fue escrito por un par de estudiantes durante un receso universitario.

El crecimiento generativo puede combinarse bien con los modelos de mercado tradicionales. Las grandes empresas pueden producir software donde la estructura del mercado y la demanda lo exijan; las empresas más pequeñas pueden llenar nichos; y los aficionados, que trabajan solos y en grupo, pueden diseñar applets inspiradores y software que requiere más mano de obra que aumenta el volumen y la diversidad del ecosistema tecnológico. Una vez que un invento excéntrico e improbable de forasteros ha ganado terreno, los medios tradicionales de recaudar y gastar capital para mejorar una tecnología pueden apuntalarla y garantizar su exposición a un público lo más amplio posible. Un ecosistema de tecnología de la información que comprenda solo los productos del movimiento del software libre sería mucho menos utilizable por el público en general que uno en el que las grandes empresas ayuden a lijar las asperezas. GNU/Linux se ha vuelto fácil de usar gracias a las empresas que empaquetan y venden copias, incluso si no pueden reclamar la propiedad exclusiva del software en sí. Es probable que las tareas tediosas que mejoran la facilidad de dominio de los no iniciados se hagan mejor a través de modelos corporativos: crear motores de instalación fluidos, guías de ayuda extensas y otras formas de agarre manual para ayudar a los usuarios a adoptar lo que de otro modo podría ser un programa de software técnico o un servicio web desagradable.

Para el individuo, hay una alegría única al construir algo, incluso si uno no es el mejor artesano. (Este es un valor que se aprecia mejor al experimentarlo; puede que no sea fácil convencer a quienes exigen pruebas). La alegría de ayudar a los demás —responder a una pregunta simplemente porque se hace y se conoce una respuesta útil, formar parte de un equipo que conduce hacia un objetivo que vale la pena— es uno de los mejores aspectos de ser humano. Nuestra arquitectura de tecnología de la información ha tropezado con una zona en la que la ayuda y el trabajo en equipo se pueden obtener y afirmar para decenas de millones de personas. La novedosa invención de los ingenieros de la capa técnica permite a los artistas contribuir en la capa de contenido. El sentimiento se captura fugaz cuando los extraños se juntan en situaciones adversas y se unen para superarlas: un ascensor que se descompone, una tormenta de nieve o un apagón que paraliza temporalmente las cadencias normales de la vida pero que lleva al asombro y a la camaradería en lugar del miedo. La Internet de principios del siglo XXI ha destilado algunos de estos valores, promoviéndolos sin el tipo de adversidad o peligro físico que podría hacer que una tormenta de nieve sea divertida para el primer día pero divisiva y sin ley después de la primera semana sin un alivio estructurado.

El puesto generativo

Las tecnologías generativas no tienen por qué producir avances, si por progreso se quiere decir algo así como mejorar el bienestar social. Más bien, fomentan el cambio. Por su naturaleza, los sistemas generativos están inacabados y esperan una mayor elaboración por parte de los usuarios y las empresas por igual. Como tal, pueden verse amenazados tan pronto como su popularidad hace que aparezcan modelos de negocio abusivos. La misma apertura y adaptabilidad de los usuarios que hacen de Internet una fuente creativa también permiten la propagación de diversos males: virus, spam, pornografía, depredación, fraude, vandalismo, violaciones de la privacidad y ataques potencialmente ruinosos contra sitios web y contra la integridad de Internet misma. Esto se está convirtiendo en una amenaza existencial para el ecosistema informático generativo.

La ventaja del PC generativo es que puede ser reutilizado por un usuario neófito con un clic del ratón. Este es también un problema enorme, por dos razones principales. En primer lugar, el usuario de PC que hace clic en un código incorrecto le entrega el control de la PC a un extraño. En segundo lugar, la amenaza que representa el código incorrecto ha aumentado constantemente. Hasta el momento, los virus más conocidos han tenido cargas útiles completamente inocuas. El gusano Mydoom 2004 se propagó como la pólvora y afectó a la conectividad en millones de ordenadores de todo el mundo. Aunque costó miles de millones de dólares en pérdida de productividad, Mydoom no alteró los datos y se programó para dejar de propagarse en un momento determinado. Los virus como Mydoom se parecen más al delito de graffiti, sin incentivos económicos, que a la venta de drogas ilegales, con sus grandes mercados y sofisticados sindicatos criminales.

Ahora existe un modelo de negocio para el código defectuoso, que proporciona cargas útiles a muchos virus y gusanos para fines distintos de la simple reproducción. Lo que parecía realmente notable cuando se descubrió por primera vez ahora es algo común: virus que comprometen a los PC para crear «botnets» grandes y abiertos a instrucciones posteriores. Dichas instrucciones han incluido dirigir al PC para que se convierta en el propio servidor de correo electrónico de la botnet, el envío de spam por millones a direcciones de correo electrónico recopiladas del disco duro de la propia máquina o de búsquedas en la Web, todo ello en un proceso que normalmente no se nota para el propietario del equipo. Según una estimación, el número de PC que participan en dichas botnets es de 100 millones a 150 millones, una cuarta parte de todos los equipos de Internet a principios de 2007. Estos ordenadores zombis fueron responsables de más del 80% del spam mundial en junio de 2006, y el spam, a su vez, representó aproximadamente el 80% del correo electrónico total del mundo ese mes.

Debido a que el entorno informático y de redes actual es tan extenso y dinámico, y sus componentes básicos cada vez más potentes son propiedad y administrados por ciudadanos habituales en lugar de expertos técnicos, su vulnerabilidad ha aumentado sustancialmente. El público no quiere ni puede mantener sus PC al nivel que los administradores de redes profesionales, a pesar de que sus máquinas son significativamente más potentes que las minicomputadoras de los años setenta y ochenta. Esa vulnerabilidad se ve agravada por la creciente dependencia de las personas de Internet. Los gusanos y virus bien diseñados infectan habitualmente vastas franjas de computadoras personales conectadas a Internet. En 2004, por ejemplo, el gusano Sasser infectó más de medio millón de ordenadores en tres días. El gusano Sapphire/Slammer en enero de 2003 persiguió un tipo particular de servidor Microsoft e infectó al 90% de ellos (120.000 máquinas) en diez minutos. Estas máquinas secuestradas estaban realizando 55 millones de búsquedas por segundo de nuevos objetivos solo tres minutos después de que la primera computadora cayera víctima. Si alguno de estos programas maliciosos tuviera un propósito verdaderamente «malo» o nefasto (por ejemplo, borrar discos duros o transponer números aleatoriamente en hojas de cálculo), nada se interpondría en el camino.

La tensión fundamental es que el objetivo de un PC es ser fácil de reconfigurar para que los usuarios ejecuten software nuevo, pero cuando los usuarios toman malas decisiones sobre qué nuevo software ejecutar, los resultados pueden ser devastadores para sus máquinas y, si están conectados a Internet, para innumerables otros. El simple hecho de elegir una plataforma más segura no resuelve el problema. Sin duda, Microsoft Windows ha sido blanco de infecciones de malware durante años, pero esto refleja en parte la cuota de mercado dominante de Microsoft. A medida que más usuarios cambien a otras plataformas, esas plataformas también se convertirán en objetivos atractivos. Y la forma más duradera de subvertir las medidas de seguridad puede ser por la puerta principal, simplemente pidiendo permiso a un usuario para agregar malware disfrazado de nueva funcionalidad, en lugar de intentar entrar por la parte trasera para explotar silenciosamente un fallo del sistema operativo.

El objetivo de un PC es que sea fácil de reconfigurar para los usuarios, pero cuando toman malas decisiones, los resultados son devastadores.

Las vulnerabilidades de seguridad de PC e Internet son una amenaza legítima y las personas tienen razón en preocuparse. Sin embargo, las reacciones más probables si no se evitan serán al menos tan desafortunadas como los propios problemas de seguridad. Los usuarios elegirán ordenadores que funcionen más como dispositivos, perderán la capacidad de instalar fácilmente código nuevo ellos mismos. En cambio, utilizarán sus máquinas como simples terminales tontos vinculados a sitios web que ofrecen interactividad adicional. Muchos de estos sitios web son susceptibles a comportamientos similares a los de los dispositivos. De hecho, lo que algunos han aplaudido como Web 2.0 (una nueva frontera de redes peer-to-peer y producción de contenido colectivo y colaborativo) es una arquitectura que puede ser controlada y mantenida estrictamente por una fuente central, que puede optar por operar de forma generativa pero que puede reducir esas capacidades en en cualquier momento.

Considera el excelente servicio de mapas de Google. No solo es muy útil para los usuarios finales, sino que también tiene una interfaz de programación de aplicaciones abierta para sus datos de mapas. Gracias a la API abierta, un creador de sitios web de terceros puede comenzar con una mera lista de direcciones y producir inmediatamente en su sitio un mapa de Google con una chincheta digital en cada dirección. Esto permite realizar cualquier número de «mashups», combinando Google maps con conjuntos de datos geográficos de terceros. Los desarrolladores web utilizan la API de Google Maps para crear sitios web que encuentran y mapean el Starbucks más cercano; crear y medir rutas de carrera, senderismo o ciclismo; identificar la ubicación de las cámaras de semáforos; y cotejar posibles socios en sitios de citas por Internet para producir pantallas instantáneas que muestren dónde está se encuentran las mejores coincidencias.

Al permitir que los codificadores accedan a sus datos de mapas, el servicio de mapas de Google es generativo. Pero su generatividad es contingente: Google asigna a cada desarrollador web una clave y se reserva el derecho de revocarla en cualquier momento y por cualquier motivo, o de cancelar todo el servicio. Sin duda, es comprensible que Google, al optar por hacer un servicio generativo de algo en lo que ha invertido mucho, quiera controlarlo. Pero esto pone bajo el control de Google, y de cualquiera que pueda regular Google, todos los usos posteriores de Google Maps, y de los mapas en general, en la medida en que la excelencia de Google Maps significa que otros servicios de mapas fallarán o nunca se crearán.

Los modelos de negocio de otros dispositivos y servicios de Internet de próxima generación no son generativos duraderos ni, en algunos casos, tan inequívocamente generativos como Internet y PC abiertos. Por ejemplo, la Xbox de Microsoft es una consola de videojuegos que tiene tanta potencia informática como una PC y está conectada en red a otros usuarios con Xbox. Microsoft pierde dinero en cada Xbox que vende, pero lo recupera vendiendo sus propios juegos y otro software para ejecutarlo. Los desarrolladores externos pueden escribir juegos de Xbox, pero deben obtener una licencia de Microsoft (que incluye darle a Microsoft una parte de los beneficios) antes de poder distribuirlos.

La mayoría de los teléfonos móviles tienen limitaciones similares: son inteligentes y muchos pueden acceder a Internet, pero el acceso se canaliza a través de navegadores proporcionados y controlados por el proveedor de servicios telefónicos. Muchos PDA vienen con software proporcionado mediante acuerdos especiales entre proveedores de dispositivos y software, como lo hace Mylo de Sony cuando ofrece Skype. Sin los primeros acuerdos de entintado con los fabricantes de dispositivos, los desarrolladores de software no pueden ejecutar su código en los dispositivos aunque los usuarios lo deseen. En 2006, AMD presentó Internet Box, un dispositivo que parece un PC pero que no puede ejecutar ningún software nuevo sin el permiso de AMD. Además, AMD puede instalar en las máquinas cualquier software que elija, incluso después de haberlo adquirido.

La creciente profusión de dispositivos conectados requiere muchas innovaciones de Internet y las envuelve de forma ordenada y convincente, lo cual es bueno, pero solo si Internet y la PC pueden permanecer lo suficientemente en el centro del ecosistema digital como para producir la próxima ronda de innovaciones y ofrecer competencia para los bloqueados, electrodomésticos hacia abajo. El equilibrio entre las dos esferas es precario y se desliza hacia los aparatos. Las personas compran estos dispositivos por su conveniencia o funcionalidad, y algunos pueden apreciar el hecho de que limitan el daño que los usuarios pueden causar por ignorancia o descuido. Sin embargo, los dispositivos también limitan las aplicaciones beneficiosas que los usuarios pueden crear o recibir de otros; las aplicaciones que tal vez no perciban son importantes para ellos cuando compran el dispositivo. El riesgo, entonces, es que los usuarios, sin darse cuenta, cambien los beneficios futuros de la generatividad, una pérdida que puede pasar desapercibida incluso a medida que la innovación desaparece.

Eliminamos el PC de muchos estudios y salas de estar, y eliminamos el banco de pruebas y el punto de distribución del nuevo software. También eliminamos la válvula de seguridad que mantiene honestos los aparatos de información: si TiVo fabrica una grabadora de vídeo digital que limita demasiado estrictamente lo que las personas pueden hacer con su vídeo grabado, los clientes recurrirán a un software DVR como MythTV, que graba y reproduce programas de televisión en PC; si los teléfonos móviles son demasiado caros, la gente usará Skype.

Si las infracciones de seguridad de Internet amenazan la capacidad del PC para funcionar de forma fiable, los consumidores no verán el mérito del PC.

Por supuesto, las personas no compran PC como pólizas de seguro contra aparatos que limitan su libertad (aunque cumplen esta función vital); los compran para realizar ciertas tareas preconcebidas. Pero si las brechas de seguridad en Internet y otros tipos de anarquía amenazan la capacidad del PC para realizar esas tareas de manera confiable, la mayoría de los consumidores no verán el mérito del PC y la válvula de seguridad se perderá. Si el PC deja de estar en el centro del ecosistema de la tecnología de la información, los aspectos más restrictivos de los dispositivos de información se convertirán en algo habitual.

Dispositivos de información y regulación

Cuando los dispositivos de información permanecen conectados con sus fabricantes, se les puede pedir a esas empresas que implementen cambios en su forma de trabajar mucho después de haberse adquirido para un uso específico. Considere el caso de TiVo contra EchoStar . TiVo introdujo el primer grabador de vídeo digital en 1998, lo que permite a los consumidores grabar programas de televisión y cambiar el tiempo. En 2004, TiVo demandó al distribuidor de televisión satelital EchoStar por infringir las patentes de TiVo al incorporar la funcionalidad de DVR en algunos de los sistemas de antena parabólica de EchoStar. TiVo ganó y recibió 90 millones de dólares en daños e intereses, pero eso no fue todo. En agosto de 2006, el tribunal dictó una orden por la que se ordenaba a EchoStar desactivar la funcionalidad del DVR en la mayoría de las unidades infractoras en funcionamiento en ese momento.

En otras palabras, el tribunal ordenó a EchoStar que eliminara los DVR en las salas de estar de personas de todo el mundo que los habían comprado y que podrían estar viendo programas grabados en ellos en ese mismo instante. Imagina sentarte a ver un programa de televisión o un programa deportivo muy esperado y, en su lugar, descubrir que todas tus grabaciones han sido eliminadas, junto con la funcionalidad del DVR en sí, eliminada por una señal remota rastreable al golpe de la pluma de un juez. La lógica es clara: si un artículo infringe los derechos de propiedad intelectual, en determinadas circunstancias puede ser confiscado y destruido. Por lo general, no es práctico incautar todos los artículos que entran en esta categoría (los agentes de policía no van puerta a puerta en busca de imitación de Rolex y Louis Vuitton), por lo que los demandantes y los fiscales tradicionalmente solo persiguen a quienes venden productos de contrabando. Pero la funcionalidad anclada de un DVR significa que EchoStar puede realizar fácilmente la modificación remota o incluso la destrucción de sus unidades. (El caso se encuentra actualmente en apelación).

La modificación remota también puede permitir a los fabricantes reutilizar sus electrodomésticos, a veces de formas que no son deseables para sus propietarios. General Motors y BMW ofrecen sistemas a bordo como OnStar para proporcionar a los propietarios de automóviles una variedad de servicios y funciones útiles, como llamadas manos libres, indicaciones de conducción giro a giro, control de la presión de los neumáticos y asistencia en carretera de emergencia. Debido a que los sistemas están conectados en red y se pueden actualizar de forma remota, la Oficina Federal de Investigaciones de los Estados Unidos trató de utilizar la tecnología para escuchar las conversaciones que se producían en un vehículo mediante la reprogramación remota del sistema a bordo para que funcionara como un error itinerante. La oficina obtuvo órdenes secretas que exigían que un fabricante de automóviles llevara a cabo esa modificación, y la empresa cumplió bajo protesta. Un tribunal federal de apelación de los Estados Unidos hallado en La Compañía contra los Estados Unidos que teóricamente se podría ordenar al fabricante de automóviles anónimo que realizara las modificaciones pero que la vigilancia del FBI interfirió con el uso normal del sistema informático. Un automóvil con una línea secreta abierta al FBI no podía conectarse simultáneamente con el fabricante de automóviles. Si los ocupantes intentaban usar el sistema para pedir ayuda de emergencia, no funcionaría. (Presumiblemente, el FBI no acudiría en ayuda del automovilista como promete hacerlo el fabricante de automóviles). La implicación del fallo fue que este tipo de vigilancia secreta del FBI sería legalmente permisible si el sistema se rediseñara para procesar simultáneamente las solicitudes de emergencia.

El cambio hacia electrodomésticos más inteligentes, que pueden ser actualizados por sus fabricantes, y solo por ellos, está cambiando radicalmente la forma en que experimentamos nuestras tecnologías. Se vuelven contingentes: Incluso si pagas por adelantado, estos electrodomésticos se alquilan en lugar de ser de propiedad, sujetos a revisión por parte del fabricante en cualquier momento.

Es difícil esbozar una imagen de todos los cambios innovadores que no ocurrirán en un futuro dominado por los electrodomésticos.

¿Qué precio va a controlar exactamente? Es difícil esbozar una imagen de todos los cambios innovadores que no ocurrirán en un futuro dominado por los electrodomésticos, pero la historia nos ofrece una guía. Antes de que el PC e Internet generativos entraran en la corriente principal alrededor de 1995, el panorama de IT registró relativamente pocas innovaciones. En los doce años transcurridos desde entonces, Internet y la PC se han combinado para inspirar una innovación técnica acelerada fuera del proceso tradicional de I+D basado en la empresa: nuevas formas de valor empresarial basadas en la web, nuevas redes sociales y comunidades de interés, y experimentos de inteligencia colectiva colaborativa. Son crisoles de nuevas formas de cultura, acción política y participación, y perderán su poder si Internet y sus puntos finales migran hacia configuraciones más fiables pero menos cambiantes.

Salvando la Internet generativa

Si el statu quo de Internet es insostenible y la solución de los dispositivos conectados genera demasiadas consecuencias indeseables, debemos buscar otras soluciones. El desafío central al que se enfrenta el ecosistema de tecnología de la información actual es mantener una apertura generativa a los experimentos que la corriente principal pueda adoptar con el menor número de barreras posible, frente a problemas potencialmente abrumadores que surgen precisamente porque es tan flexible y potente. Podemos sacar pautas generales útiles a partir de algunas de las historias de éxito de modelos generativos que han demostrado poder de permanencia. He aquí un breve ejemplo:

Netizenship.

Una solución al problema generativo implementa herramientas para que las personas las utilicen, por lo general en grupos pequeños, para evitar lo que consideran abuso. Por ejemplo, Wikipedia ofrece herramientas fáciles de dominar que permiten a los editores autoidentificados combatir el vandalismo que surge al permitir que cualquier persona edite entradas. Es un sistema a la vez ingenuo y potente en comparación con las palancas de regulación y control más tradicionales diseñadas para evitar que los valores atípicos hagan cosas malas. Es lo opuesto al modelo de atención al cliente en el que un cliente llama a una línea de ayuda. Más bien, es como un departamento de bomberos voluntarios o un vigilante vecinal. No todo el mundo podrá combatir incendios o vigilar el vecindario; ¡seguro que algunos lo incendiarán! , pero incluso un pequeño subconjunto puede convertirse en una masa crítica.

La propagación del código incorrecto es tanto un problema social como técnico, y la gente puede entrar en una configuración social para atacarlo. Una pequeña aplicación podría ejecutarse discretamente en los PC de los usuarios participantes e informar a una fuente central, o quizás solo entre sí, información sobre los signos vitales y el código de ejecución de ese PC, lo que ayudaría a otros PC a entender si el código es arriesgado o no. Con esa información, un PC podría utilizar las experiencias de otros PCs no identificados para empoderar al usuario: En el momento en que el usuario está decidiendo si ejecutar algún software nuevo, las conexiones de la aplicación a otras máquinas podrían mostrar, por ejemplo, cuántas de las otras máquinas estaban ejecutando el código, si las máquinas de auto- los expertos descritos lo estaban ejecutando, si se había trasladado a esos expertos para que lo respaldaran y cuánto tiempo había estado disponible el código. También podría indicar la cantidad de tráfico de red no deseado, anuncios emergentes o bloqueos que el código parece causar. Este tipo de datos se pueden ver en un panel sencillo, lo que permite a los usuarios de PC hacer juicios rápidos a la luz de sus propias preferencias de riesgo.

Máquinas virtuales.

Para aquellas personas que simplemente quieren que sus PC funcionen de forma fiable, una solución a medio plazo puede estar en tecnologías que permitan aislar el trabajo de misión crítica de las actividades experimentales caprichosas que podrían ser peligrosas o que podrían convertirse en el próximo uso clave de Internet. El científico informático Butler Lampson y otros están desarrollando arquitecturas prometedoras que permiten que los PC individuales tengan varias zonas, dos o más máquinas virtuales ejecutándose en una sola caja. Una fusión en la zona experimental roja no puede afectar a la zona verde más segura y, por lo tanto, el consumidor no tiene que elegir entre una caja generativa y un aparato. Las declaraciones de impuestos y los documentos importantes se vuelven verdes; Skype comienza en rojo y luego se mueve solo cuando parece estar listo para el horario de máxima audiencia.

Más ayuda de los ISP.

Mantener la seguridad de un sistema generativo es, por su naturaleza, un proceso continuo, que requiere el ingenio continuo de quienes quieren que funcione bien y la participación más amplia de otros para contrarrestar las acciones de una minoría determinada para abusar de él. Si la red está completamente abierta, los puntos finales pueden ser atacados. Si los puntos finales permanecen libres a medida que la red se ordena un poco más, actúan como válvulas de seguridad en caso de que el filtrado de la red comience a bloquear algo más que un código incorrecto. Hoy en día, los ISP hacen la vista gorda ante los ordenadores zombis en sus redes, por lo que no tienen que pasar tiempo trabajando con sus suscriptores para arreglarlos. Ya sea a través de nuevas prácticas recomendadas de la industria o mediante un reordenamiento de la responsabilidad que obliga a los ISP a actuar en las situaciones más flagrantes y atroces de los zombis, podemos ganar otra medida de tiempo en el continuo juego de seguridad del gato y el ratón.

Neutralidad de red para mashups.

Quienes proporcionan contenidos y servicios a través de Internet se han alineado a favor de la «neutralidad de la red», por la cual los ISP no podrían desfavorecer cierto contenido legítimo que pasa por sus servidores. Del mismo modo, aquellos que ofrecen API abiertas en Internet deben ser neutrales para las aplicaciones, de modo que todos aquellos que quieran construir sobre sus interfaces pueden confiar en ciertas funcionalidades básicas.

Para que la Internet generativa se salve a sí misma, debe generar sus propias soluciones.

Los sistemas generativos ofrecen beneficios extraordinarios. A medida que se generalizan, la gente que los usa puede compartir algún sentido del espíritu experimentalista que los impulsa. Las soluciones anteriores se esbozan en los términos más básicos, pero lo que comparten es la idea de que para que Internet generativa se salve a sí misma, debe generar sus propias soluciones. Cuanto más podamos mantener Internet como un trabajo en progreso, más progreso podremos hacer.


Escrito por
Jonathan Zittrain



Newsletter

Avanza tu carrera profesional, con el resumen semanal de las publicaciones, un libro de negocio resumido en 10 minutos y entrevistas con líderes de negocio