Sección 230 que define Internet en riesgo por ChatGPT
La normativa considera fundamental a la hora de diferenciar la labor de las redes sociales frente a los medios
Ciencia y tecnología.- Sobre la Sección 230 se sustenta buena parte de las bases sobre libertad de expresión bajo las que funciona ahora internet, y su revisión está ahora mismo en marcha también bajo la lupa del contenido que genera ChatGPT.
Esta surgió luego de que en 1994 Stratton Oakmont, firman de Jordan Belfort, el famoso Lobo de Wall Street, demandó a dos compañías de economía de internet, Prodigy y Compuserve (ambos foros primitivos), por difundir información acerca de su jefe.
Reseñó el medio especializado Hipertextual que Compuserve se "salvó" en los tribunales, porque nadie controlaba qué publicaba la comunidad, mientras que en el caso de Prodigy, el tribunal falló a favor de Oakmont porque la empresa moderaba las publicaciones en sus foros. Es decir, se consideraba que ejercía un control.
Tras la sentencia, se estableció la sección 230, que forma parte del Capítulo V del Título 47 del Código de Estados Unidos. Esta estipula que los proveedores de servicios de internet no tienen ninguna responsabilidad por el contenido publicado por sus usuarios.
Al mismo tiempo que les otorga autoridad para filtrar o censurar voluntariamente cualquier material considerado "obsceno, lascivo, excesivamente violento u ofensivo por cualquier otro motivo, independientemente de su estatus de protección legal".
Esto se considera fundamental a la hora de diferenciar la labor de las redes sociales frente a los medios de comunicación.
Esta normativa ha sido altamente repasada en los últimos años. Durante la era Trump, la eliminación de sus tuits y la suspensión de su cuenta en Twitter trajo consigo un debate sobre dónde estaban los límites o no de esta norma. Si únicamente bajo los estándares de la propia plataforma, o si debían ser agnósticas con respecto a cualquier publicación.
A ello se ha sumado la pregunta sobre ChatGPT, que en cierto modo está repitiendo la historia fundacional de internet y las redes sociales: empezaron con entusiasmo por estos inventos y terminaron con inquietud por el daño que podrían causar.
Ahora, sin embargo, la era de la inteligencia artificial al alcance de todos representada por ChatGPT abre una nueva pregunta: ¿Quién es responsable de la información que devuelve?
ChatGPT de forma inicial, aunque quizá ya no al ser más usado, pero otros modelos grandes del lenguaje pueden convertirse en mentirosos, racistas o en cómplices de terroristas que explican cómo construir bombas caseras. La pregunta es: cuando eso ocurre, ¿quién es el responsable?
El juez del Tribunal Supremo de Estados Unidos, Neil M. Gorsuch dijo durante la argumentación oral recogida el Washington Post, en uno de estos casos recientes relacionados con la Sección 230, que la IA "genera polémicas hoy en día que serían contenidos que van más allá de elegir, escoger, analizar o digerir contenidos", hipótesis "que no está protegida".
Los debates en torno a la Sección 230 son la base de internet: si en Twitter se cierra una cuenta tanto con Musk al frente como antes, o si en Facebook en Instagram corren fake news, pero se censura un pezón. Algoritmo, de nuevo, bajo unas reglas que se marca en cada jardín propio. Y en medio, la inteligencia artificial, que ya ha demostrado que es capaz si no se le acota de cruzar todas estas fronteras.