top of page
Buscar

Del código a la cultura: navegando en la era de la IA

ree

Soy un programador cuya sintaxis se ha oxidado, al que recurro con más frecuencia para rescatarme que para la rutina. Antaño, vivía entre las teclas y el brillo de la pantalla, escribiendo algoritmos en cuadernos enteros y depurando hasta el amanecer. Creé un juego de conducción que transportaba a mis amigos durante largas noches y un programa de télex que enviaba órdenes a todo el mundo sin pausa. Ese era el oficio de otra época, cuando semanas de trabajo entregaban lo que hoy podría terminarse antes de comer.

                           

Ahora el rol ha cambiado. Enmarco el problema, esbozo la lógica y defino la entrega. Luego, la IA toma el control, convirtiendo el esquema en ejecución. Las horas reemplazan a las semanas, y lo que antes parecía una invención a la luz del fuego ahora avanza a la velocidad de un cable eléctrico. El cambio no es solo mío. Es un momento compartido, una forma diferente de pensar sobre cómo construimos, gobernamos y vivimos con la tecnología.

 

Esa aceleración explica por qué un puñado de fundadores puede lograr lo que antes exigía ejércitos de programadores. Las startups que podrían haber avanzado con dificultad ahora avanzan a pasos agigantados, impulsadas por herramientas que generan tanto como obedecen. La frontera de la programación se ha ampliado, y los antiguos límites de personal y tiempo se han desvanecido.

 

Pero la velocidad tiene una sombra. Cuestiones como el trabajo, la equidad, la privacidad, la energía, la propiedad y el uso indebido surgen con cada avance. Por cada historia de IA que facilita el descubrimiento, otra muestra sesgos en la contratación, falsedades que se propagan más rápido que la verdad o creatividad limitada a la replicación. Estos no son riesgos abstractos. Forjan la confianza, y sin confianza, incluso las herramientas más poderosas flaquean.

 

No podemos esperar respuestas perfectas. El progreso avanza, lo agradezcamos o no. La tarea es moldearlo, exigir claridad, integrar el aprendizaje y la adaptación en cada paso. Para mantener el ritmo de la tecnología, debemos enseñar mientras implementamos, gobernar mientras construimos y adaptarnos sobre la marcha.

 

Ese es el marco de este artículo. Desde la programación hasta los datos y la infraestructura, examinaremos no un futuro lejano, sino el mundo que ya nos apremia.

 

Plan de acción y órdenes ejecutivas sobre inteligencia artificial de EE. UU.

 

Las preguntas ya no son abstractas. Las naciones ya están definiendo sus estrategias, decidiendo cuánto impulsar la innovación, cuánto regular y cuánto proteger sus propios intereses. Estados Unidos ha presentado su último plan, moldeado mediante ensayo, error y ajuste, lo que marca un paso más en su estrategia para competir en esta carrera donde otros ya han establecido sus propios objetivos.

 

Este plan se basa en años de esfuerzo, siguiendo políticas previas que pusieron a prueba ideas, revelaron deficiencias y marcaron el progreso. Como todo inventor sabe, el fracaso no es un revés, sino un paso hacia el perfeccionamiento. La estrategia actual de Estados Unidos refleja tanto lo que ha funcionado como lo que no, destilando esas lecciones en un marco más deliberado. Es un plan trazado a lápiz, listo para ser revisado.

 

Publicado bajo la administración Trump con el título Ganar la carrera de la IA: Plan de acción de IA de Estados Unidos, el marco se basa en tres pilares fundamentales:

 

1. Acelerar la innovación reduciendo las barreras regulatorias que ralentizan el desarrollo y la implementación

2. Infraestructura de construcción, incluida la capacidad energética y del centro de datos que la IA requiere para operar a escala

3. Liderar a nivel internacional al garantizar que la tecnología y los estándares estadounidenses den forma al futuro global.

 

El plan abarca más de noventa acciones federales, desde el desarrollo de la fuerza laboral hasta la política energética, las normas de contratación pública y el control de las exportaciones. Su énfasis en la desregulación y la infraestructura indica una postura proinnovación, pero el éxito dependerá de la adaptación del gobierno. La privacidad, el impacto ambiental y la equidad no pueden ignorarse; deben integrarse en el mismo impulso que impulsa el crecimiento. El objetivo no es cantar victoria, sino mantener la competitividad en una contienda sin meta. No se trata de una carrera a toda velocidad hacia un punto final, sino de una carrera a largo plazo para mantener la inventiva, la apertura y la relevancia global.

 

Enfoques globales para el desarrollo de la IA

 

Estados Unidos no es el único país que define las reglas de la IA. La Unión Europea está impulsando la Ley de IA, un marco regulatorio integral orientado a la supervisión basada en riesgos y a estrictos estándares de transparencia. La estrategia china combina una inversión agresiva en IA con un estricto control gubernamental sobre modelos, conjuntos de datos y resultados. Países como Singapur, Canadá y el Reino Unido se están posicionando como centros de investigación ética en IA, mientras que otros se centran en aplicaciones militares y de vigilancia. Los Emiratos Árabes Unidos y otros países de Oriente Medio también están emergiendo como actores clave en el ámbito de la IA, vinculando las inversiones nacionales con estrategias más amplias de diversificación económica y manifestando su intención de moldear los mercados globales de IA.

 

Estos enfoques reflejan prioridades nacionales y valores culturales. La UE prioriza la precaución y la protección del consumidor. China prioriza el control central y la integración en los objetivos estatales. Estados Unidos se inclina por un crecimiento impulsado por el mercado y la velocidad de la innovación. Emiratos Árabes Unidos posiciona la IA como parte de una agenda económica y de innovación más amplia. Ninguno de estos caminos está exento de contrapartidas. La carrera global no se limita a quién desarrolla la IA más capaz, sino también a quién define las normas que regirán su uso a nivel mundial. La verdadera competencia radica en la confianza, la adopción y la influencia sobre los estándares que guiarán la integración de la IA en la vida cotidiana. Estos enfoques en pugna moldearán no solo la tecnología, sino también las normas, las libertades y los supuestos culturales que la rigen.

 

Esa competencia global es importante porque la forma en que las naciones establezcan las reglas determinará cómo se utiliza la IA y, aún más importante, cómo puede servir a las personas. La IA no es una amenaza para el progreso de la humanidad. Es un indicador del alcance del ingenio humano. Puede encargarse de las tareas repetitivas que requieren un gran volumen de datos, dándonos más tiempo para pensar, diseñar y resolver problemas. Si se utiliza correctamente, la IA puede ayudar a predecir desastres antes de que ocurran, mejorar los resultados médicos y hacer que la educación sea personal y accesible en cualquier lugar. Como cualquier herramienta, refleja la intención de quienes la crean y la utilizan. La verdadera oportunidad reside en desarrollar la IA de manera que engrandezca lo mejor de lo humano.

 

Aprovechar esa oportunidad requiere más que una visión. Se necesita la capacidad física para hacer posible la IA a gran escala. Esto implica centros de datos avanzados, sistemas energéticos resilientes y la experiencia técnica para gestionarlos. Estos activos constituyen la columna vertebral de cualquier estrategia seria de IA. Sin ellos, las políticas se quedan en meras aspiraciones. Con ellos, las naciones pueden traducir la ambición en resultados. La infraestructura no es una idea de último momento. Es la base de la soberanía en la era digital. La capacidad de poseer y operar centros de datos, asegurar el suministro de energía y contar con personal técnico cualificado determina si la IA se convierte en una herramienta para otros o en una fuente de fortaleza nacional. Esta es la base del pilar de Infraestructura, que enmarca la IA no solo como código y datos, sino como un sistema anclado en la capacidad física nacional.

 

Los centros de datos como núcleo físico de la IA

 

La IA es energía + algoritmos + datos . Los centros de datos son donde estos elementos se unen y toman forma. No son opcionales; son el núcleo. La generación de energía, los sistemas de refrigeración, las redes, la carga eléctrica y la estabilidad de la red forman el andamiaje que los sostiene, y su fiabilidad determina el crecimiento de la IA. Expandir la capacidad es más que racks y servidores; es el trabajo de electricistas, técnicos de HVAC e ingenieros de redes cuyas habilidades hacen posible la escala. También está aumentando el consumo de energía, con costos ambientales que no podemos ignorar. Sin embargo, las ganancias en productividad e innovación siguen siendo demasiado grandes como para ignorarlas. La infraestructura le da a la IA su cuerpo, mientras que los algoritmos y los datos le dan carácter. Y en ese carácter residen las decisiones que determinan el sesgo, la transparencia y la confianza.

 

Sesgo, libertad de elección y transparencia en los sistemas de IA

 

La IA general y los modelos lingüísticos extensos deberían funcionar como diccionarios o enciclopedias: basados en hechos indiscutibles, y cuando estos sean controvertidos, presentar la evidencia con claridad y señalar las perspectivas interpretativas sin favorecer a ninguna de las partes. Esta neutralidad garantiza que la IA sea una herramienta imparcial y basada en hechos.

 

Las versiones especializadas son aceptables cuando explicitan su perspectiva. Un diccionario religioso o una IA diseñada para los valores de una comunidad es válida si los usuarios saben qué eligen. El sesgo no siempre es perjudicial. Puede ser exactamente la perspectiva que el usuario busca. Si un proveedor crea un modelo de este tipo, el sesgo debe ser claro desde el principio, identificado en el momento de su uso, como la etiqueta de advertencia en un paquete de cigarrillos. Los defensores pueden promover sus propias versiones, pero no pueden imponérselas a otros. La libertad de expresión permite la diversidad, pero los modelos abiertos y fundacionales deben permanecer neutrales.

 

Las políticas gubernamentales deberían seguir el mismo principio. Los fondos públicos no deberían comprar IA sesgada. Los modelos gratuitos o de acceso abierto deben ser neutrales o expresar su perspectiva con claridad. Incluso en este caso, el desafío reside en la definición. Lo que parece neutral en una cultura puede parecer sesgado en otra. Algunas naciones comienzan la semana el domingo, otras el lunes. Ambos son lógicos. Los sistemas de medición también difieren. Una milla y un kilómetro describen distancias, pero con diferentes convenciones. Si incluso los calendarios y las unidades pueden dividir la interpretación, ¿por qué deberíamos creer que la IA, desarrollada por humanos, será inmune? La neutralidad en sí misma no es universal. Está determinada por la cultura, la historia y la perspectiva.

 

La reciente Orden Ejecutiva sobre "Principios Imparciales de IA" refleja esta idea, alejando las contrataciones federales de sistemas con sesgos ideológicos. Sin embargo, términos políticos como "woke", incluso en su forma abreviada, introducen sesgos innecesarios. Los estándares gubernamentales deberían basarse en documentos fundacionales como la Constitución, dando gran importancia a los originales a menos que sean reemplazados e incluyendo perspectivas históricas equilibradas cuando existan opiniones divergentes. Las IA deben tratar los hechos de manera justa, sin privilegiar a ninguna de las partes. En el mejor de los casos, son herramientas que eliminan barreras, igualan el acceso y brindan oportunidades a todos.

 

Privacidad, derechos de autor y derechos digitales

 

La protección de la privacidad de los datos de entrenamiento y las entradas de los usuarios está evolucionando, al igual que la protección de los derechos de autor. Es necesario proteger aquello con lo que entrenamos a las IA y lo que incluimos en las indicaciones. Las IA aprenden patrones, no contenido exacto. Puede parecer que duplican el texto de los datos de entrenamiento, pero la mayoría de los resultados son probabilísticos. La duplicación exacta puede ocurrir, pero a menudo se debe a que el material es predecible basándose en datos públicos ampliamente disponibles, en lugar de una copia almacenada.

 

Es difícil argumentar que los sistemas que a menudo alucinan y a veces fallan en tareas sencillas, como contar las "r" de la palabra "fresa", estén cometiendo una infracción deliberada de derechos de autor. Sus errores demuestran que los resultados reflejan predicciones probabilísticas, no obras almacenadas. Esta distinción es importante para las políticas públicas. Sugiere que la mayoría de los casos de aparente duplicación se deben a errores de entrenamiento o de modelado estadístico, no a la reproducción intencionada de contenido protegido.

 

Cuando se produce una duplicación, debe exigirse responsabilidad, al igual que ocurre con los humanos. Dicha responsabilidad puede recaer en los creadores, los operadores o las entidades que se benefician financieramente o de otro modo del sistema. La doctrina del uso legítimo ofrece una vía razonable para avanzar. La IA debería poder aprender de cualquier recurso abierto y disponible, respetando al mismo tiempo la legislación sobre derechos de autor y no reproduciendo obras protegidas en su totalidad.

 

Educación y adopción global de tecnología

 

La educación sigue siendo esencial para dotar a las personas de conocimientos sobre IA y reducir las consecuencias no deseadas. La IA complica la educación, pero también la fortalece. Su adopción difiere entre generaciones, no solo en Estados Unidos, sino en todo el mundo. Los jóvenes suelen adoptar las nuevas tecnologías con rapidez, pero la velocidad no es sinónimo de comprensión.

 

La IA ofrece la oportunidad de nivelar el campo de juego global. Los estudiantes en zonas remotas pueden acceder a tutorías y recursos que antes estaban fuera de su alcance, incluso a nivel universitario. La promesa es real, pero también lo son sus límites. No se puede confiar únicamente en la precisión de la IA. La alfabetización debe incluir la disciplina para cuestionar y verificar sus resultados.

 

La oportunidad no es solo ampliar el acceso, sino también moldear el juicio. Enseñar al mundo a usar la IA como herramienta basada en hechos puede igualar la información, preservando al mismo tiempo la responsabilidad humana de probar, interpretar y decidir.

 

Gobernanza, marco cultural y libertad de expresión

 

El marco cultural será uno de los desafíos más difíciles. Cabe destacar las perspectivas estadounidenses sobre la libertad de expresión, aunque existen límites establecidos por la doctrina y los tribunales. Otros países aplican estándares diferentes, y sus perspectivas sobre la expresión a menudo difieren del modelo estadounidense.

 

Los gobiernos no deberían forzar la eliminación de datos ni insertar editoriales o propaganda en el entrenamiento básico de las IA. Los términos con carga política en los documentos oficiales, como "woke", son en sí mismos sesgados y deben evitarse porque politizan una regulación que, de otro modo, sería legítima.

 

Los estándares gubernamentales de IA deben inspirarse en documentos fundacionales como la Constitución de los Estados Unidos y otras doctrinas reconocidas internacionalmente. Los originales deben tener la máxima validez, a menos que se invaliden explícitamente. Cuando la historia ofrezca perspectivas contradictorias, ambas deben incluirse.

 

Las IA base, especialmente aquellas presentadas como código abierto y exportadas globalmente, deberían tratar la información factual por igual sin priorizar un punto de vista.

 

Compensaciones filosóficas e impacto social

 

Las demandas energéticas de la IA plantean preocupaciones ambientales válidas; sin embargo, es probable que sus mejoras en la productividad compensen los impactos generales. Sin embargo, no se pueden ignorar los perjuicios individuales. El avance de la IA requiere concesiones. Ya ha beneficiado a muchas personas, con casos documentados donde ha salvado vidas. También hay casos en los que se alega que su uso ha causado daños.

 

La productividad y la innovación beneficiarán a un gran número de personas, pero también habrá desplazamientos. Optar por no avanzar en la IA también conlleva perjuicios, negando a las personas los beneficios que sus innovaciones podrían brindar. Este es un dilema filosófico, similar a decidir cuál de dos pacientes críticos debe recibir el único tratamiento disponible para salvarles la vida. Ninguna opción evita pérdidas, pero es necesario tomar una decisión.

 

La historia demuestra que toda gran innovación tiene resultados dispares. La acción o la inacción siempre han beneficiado a algunos grupos y perjudicado a otros, y la IA no es la excepción. Es una herramienta que puede funcionar a nuestro favor o en nuestra contra. Las barreras de seguridad son esenciales, pero no deben hacer que el camino sea intransitable. El reto consiste en equilibrar el impulso hacia adelante con salvaguardas que protejan sin sofocar. La solución no estará en evitar la IA, sino en usarla con prudencia.

 

Pensamientos progresistas

 

Empecé con un objetivo sencillo y una pequeña aplicación de utilidad. Años atrás, me habría llevado una semana o más escribirla y depurarla. Esta vez, la IA construyó el núcleo en minutos y yo solo dediqué unas horas a darle la forma que quería. Ese pequeño proyecto refleja el panorama general: la IA acelera lo posible, pero aún depende de la imaginación, la creatividad, la dirección, la corrección y el criterio humanos.

 

La tarea de Estados Unidos y del mundo es ampliar esa misma dinámica. Construir con rapidez. Corregir con frecuencia. Mantenerse comprometido. Gobernar la IA no es una decisión única, sino una responsabilidad continua. Las leyes promulgadas hoy pueden estructurar el futuro, pero no pueden prever todos los cambios futuros. Incluso la Constitución, a menudo citada como progresista, ofreció principios generales en lugar de prescripciones fijas, dejando margen para la adaptación. Esa flexibilidad es el modelo que debemos seguir con la IA: principios que guían, respaldados por políticas que se adaptan.

 

Los gobiernos actúan con cautela porque deben hacerlo, pero la IA avanza con rapidez porque puede. Cerrar esa brecha no se trata de abandonar la cautela, sino de encontrar nuevas formas de agilidad. El reto consiste en equilibrar la estabilidad con la visión, ir más allá de las declaraciones centradas en los titulares y avanzar hacia una gestión constante, y mantener nuestro ritmo, legislar con visión y gobernar con humildad.

 

Ése es el trabajo que tenemos por delante: utilizar esta tecnología sabiamente, permitirle ampliar las oportunidades sin renunciar al juicio y asegurarnos de que su progreso refleje no sólo lo que podemos construir sino también quiénes elegimos ser.


Brightside está convirtiendo estos principios en sistemas operativos, aplicando la IA a las comunicaciones satelitales, la orquestación de centros de datos, la respuesta ante desastres y el transporte para aumentar la productividad humana y fortalecer la soberanía digital. Nuestros objetivos son claros: construir con rapidez, corregir con frecuencia y demostrar confianza con resultados.


~Mark Munger - Director de tecnología de Brightside Industries

 
 
 

Comentarios


bottom of page