Un filtro de Internet es un software que restringe o controla el contenido al que un usuario de Internet puede acceder, especialmente cuando se utiliza para restringir el material distribuido a través de Internet a través de la Web , el correo electrónico u otros medios. Estas restricciones se pueden aplicar en varios niveles: un gobierno puede intentar aplicarlas a nivel nacional (véase censura de Internet ), o pueden ser aplicadas, por ejemplo, por un proveedor de servicios de Internet a sus clientes, por un empleador a su personal, por una escuela a sus estudiantes, por una biblioteca a sus visitantes, por un padre al ordenador de un niño o por un usuario individual a sus propios ordenadores . El motivo suele ser impedir el acceso a contenido que el propietario del ordenador u otras autoridades pueden considerar objetable. Cuando se impone sin el consentimiento del usuario, el control de contenido puede caracterizarse como una forma de censura de Internet. Algunos programas de filtrado incluyen funciones de control de tiempo que permiten a los padres establecer la cantidad de tiempo que el niño puede pasar accediendo a Internet o jugando u otras actividades informáticas.
El término "control de contenido" se utiliza en ocasiones en CNN , [1] la revista Playboy , [2] el San Francisco Chronicle , [3] y The New York Times . [4] Sin embargo, a menudo se utilizan otros términos, incluidos "software de filtrado de contenido", "filtro de contenido web", "servidores proxy de filtrado", "pasarelas web seguras", " software de censura ", "seguridad y control de contenido", " software de filtrado web ", "software de censura de contenido" y "software de bloqueo de contenido". "Nannyware" también se ha utilizado tanto en el marketing de productos como por los medios de comunicación. La empresa de investigación de la industria Gartner utiliza "pasarela web segura" (SWG) para describir el segmento de mercado. [5]
Las empresas que fabrican productos que bloquean sitios web de forma selectiva no los denominan software de censura, sino que prefieren términos como "filtro de Internet" o "filtro de URL"; en el caso específico de software diseñado específicamente para permitir a los padres controlar y restringir el acceso de sus hijos, también se utiliza el término "software de control parental". Algunos productos registran todos los sitios a los que accede un usuario y los califican en función del tipo de contenido para informar a un " socio responsable " elegido por la persona, y se utiliza el término software de responsabilidad . Los filtros de Internet, el software de control parental y/o el software de responsabilidad también pueden combinarse en un solo producto.
Sin embargo, quienes critican este tipo de software utilizan el término "censura" con mucha libertad: basta pensar en el Proyecto Censorware, por ejemplo. [6] El uso del término "censura" en editoriales que critican a los creadores de este tipo de software está muy extendido y abarca muchas variedades y aplicaciones diferentes: Xeni Jardin utilizó el término en un editorial del 9 de marzo de 2006 en The New York Times, al hablar del uso de software de filtrado de fabricación estadounidense para suprimir contenidos en China; en el mismo mes, un estudiante de secundaria utilizó el término para hablar de la implantación de este tipo de software en su distrito escolar. [7] [8]
En general, fuera de las páginas editoriales descritas anteriormente, los periódicos tradicionales no utilizan el término "censura" en sus artículos, y prefieren utilizar términos menos abiertamente controvertidos como "filtro de contenido", "control de contenido" o "filtrado web"; The New York Times y The Wall Street Journal parecen seguir esta práctica. Por otro lado, los periódicos basados en la Web como CNET utilizan el término tanto en contextos editoriales como periodísticos, por ejemplo "Windows Live to Get Censorware" [9] .
Los filtros se pueden implementar de muchas maneras diferentes: mediante software en una computadora personal, a través de infraestructura de red como servidores proxy , servidores DNS o firewalls que brindan acceso a Internet. Ninguna solución brinda una cobertura completa, por lo que la mayoría de las empresas implementan una combinación de tecnologías para lograr el control de contenido adecuado de acuerdo con sus políticas.
Internet no proporciona intrínsecamente bloqueo de contenidos y, por lo tanto, hay mucho contenido en Internet que se considera no apto para niños, dado que mucho contenido tiene certificaciones como apto sólo para adultos, por ejemplo, juegos y películas con clasificación para mayores de 18 años.
Los proveedores de servicios de Internet (ISP) que bloquean material que contiene pornografía o contenido controvertido relacionado con la religión, la política o las noticias suelen ser utilizados por padres que no permiten que sus hijos accedan a contenido que no se ajuste a sus creencias personales . Sin embargo, el software de filtrado de contenido también se puede utilizar para bloquear malware y otro contenido que sea o contenga material hostil, intrusivo o molesto, incluido adware , spam , virus informáticos , gusanos , troyanos y spyware .
La mayoría de los programas de control de contenido se comercializan para organizaciones o padres. Sin embargo, en ocasiones también se comercializan para facilitar la autocensura, por ejemplo, por parte de personas que luchan contra las adicciones a la pornografía en línea , los juegos de azar, las salas de chat, etc. Algunas personas también pueden utilizar programas de autocensura para evitar ver contenido que consideren inmoral, inapropiado o simplemente distractor. Varios productos de software de rendición de cuentas se comercializan como software de autocensura o rendición de cuentas . Estos suelen ser promocionados por medios religiosos y en reuniones religiosas . [17]
El uso de un filtro que es demasiado celoso al filtrar contenido, o que etiqueta incorrectamente el contenido que no está destinado a ser censurado puede resultar en un bloqueo excesivo o una censura excesiva. El bloqueo excesivo puede filtrar material que debería ser aceptable según la política de filtrado vigente, por ejemplo, la información relacionada con la salud puede filtrarse involuntariamente junto con material relacionado con la pornografía debido al problema de Scunthorpe . Los administradores de filtros pueden preferir pecar de cautelosos al aceptar el bloqueo excesivo para evitar cualquier riesgo de acceso a sitios que determinen que son indeseables. Se mencionó que el software de control de contenido bloqueaba el acceso a Beaver College antes de su cambio de nombre a Arcadia University . [18] Otro ejemplo fue el filtrado de Horniman Museum . [19] Además, el bloqueo excesivo puede alentar a los usuarios a omitir el filtro por completo.
Cada vez que se carga nueva información en Internet, los filtros pueden bloquear o censurar de manera insuficiente el contenido si las partes responsables de mantener los filtros no los actualizan con rapidez y precisión y si existe una política de filtrado de listas negras en lugar de listas blancas. [20]
Muchos [21] no estarían satisfechos con que el gobierno filtrara puntos de vista sobre cuestiones morales o políticas, y estarían de acuerdo en que esto podría convertirse en un apoyo a la propaganda . Muchos [22] también considerarían inaceptable que un ISP, ya sea por ley o por decisión propia, implemente dicho software sin permitir a los usuarios desactivar el filtrado para sus propias conexiones. En los Estados Unidos, se ha citado la Primera Enmienda de la Constitución de los Estados Unidos en los llamados a criminalizar la censura forzada en Internet. (Véase la sección siguiente )
En 1998, un tribunal federal de distrito de los Estados Unidos en Virginia dictaminó ( Loudoun v. Board of Trustees of the Loudoun County Library ) que la imposición de filtros obligatorios en una biblioteca pública viola la Primera Enmienda. [23]
En 1996, el Congreso de los Estados Unidos aprobó la Ley de Decencia en las Comunicaciones , que prohibía la indecencia en Internet. Los grupos de libertades civiles impugnaron la ley amparándose en la Primera Enmienda y, en 1997, la Corte Suprema falló a su favor. [24] Parte del argumento de las libertades civiles, especialmente de grupos como la Electronic Frontier Foundation , [25] era que los padres que quisieran bloquear sitios podían utilizar su propio software de filtrado de contenidos, lo que hacía innecesaria la intervención del gobierno. [26]
A finales de los años 90, grupos como el Proyecto Censorware comenzaron a aplicar ingeniería inversa al software de control de contenido y a descifrar las listas negras para determinar qué tipo de sitios bloqueaba el software. Esto dio lugar a acciones legales alegando violación del acuerdo de licencia de "Cyber Patrol" . [27] Descubrieron que dichas herramientas bloqueaban rutinariamente sitios no objetables y, al mismo tiempo, no bloqueaban los objetivos previstos.
Algunas empresas de software de control de contenidos respondieron afirmando que sus criterios de filtrado estaban respaldados por una verificación manual intensiva. Los oponentes de las empresas argumentaron, por otro lado, que realizar la verificación necesaria requeriría recursos mayores que los que poseían las empresas y que, por lo tanto, sus afirmaciones no eran válidas. [28]
La Motion Picture Association obtuvo con éxito una resolución en el Reino Unido que obliga a los ISP a utilizar software de control de contenido para evitar la violación de derechos de autor por parte de sus suscriptores. [29]
Se ha demostrado que muchos tipos de software de control de contenido bloquean sitios en función de las inclinaciones religiosas y políticas de los propietarios de la empresa. Los ejemplos incluyen el bloqueo de varios sitios religiosos [30] [31] (incluido el sitio web del Vaticano), muchos sitios políticos y sitios relacionados con la homosexualidad. [32] Se demostró que X-Stop bloquea sitios como el sitio web Quaker , el National Journal of Sexual Orientation Law, The Heritage Foundation y partes de The Ethical Spectacle. [33] CYBERsitter bloquea sitios como National Organization for Women . [34] Nancy Willard, investigadora académica y abogada, señaló que muchas escuelas públicas y bibliotecas de EE. UU. utilizan el mismo software de filtrado que utilizan muchas organizaciones cristianas. [35] Se ha descubierto que Cyber Patrol, un producto desarrollado por la Liga Antidifamación y The Learning Company de Mattel, [36] bloquea no sólo los sitios políticos que considera que incurren en "discurso de odio", sino también sitios web de derechos humanos, como la página web de Amnistía Internacional sobre Israel y sitios web de derechos de los homosexuales, como glaad.org. [37]
El etiquetado de contenido puede considerarse otra forma de software de control de contenido. En 1994, la Internet Content Rating Association (ICRA), que ahora forma parte del Family Online Safety Institute , desarrolló un sistema de clasificación de contenido para los proveedores de contenido en línea. Mediante un cuestionario en línea, un webmaster describe la naturaleza de su contenido web. Se genera un pequeño archivo que contiene un resumen condensado y legible por computadora de esta descripción que luego puede ser utilizado por el software de filtrado de contenido para bloquear o permitir ese sitio.
Las etiquetas ICRA vienen en una variedad de formatos. [38] Estos incluyen el Marco de descripción de recursos (RDF) del Consorcio World Wide Web, así como las etiquetas de la Plataforma para la selección de contenido de Internet (PICS) utilizadas por el Asesor de contenido de Internet Explorer de Microsoft . [39]
Las etiquetas ICRA son un ejemplo de autoetiquetado. De manera similar, en 2006 la Asociación de Sitios que Promueven la Protección Infantil (ASACP) inició la iniciativa de autoetiquetado Restringido a Adultos. Los miembros de la ASACP estaban preocupados por el hecho de que varias formas de legislación que se estaban proponiendo en los Estados Unidos iban a tener el efecto de obligar a las empresas de contenido para adultos a etiquetar su contenido. [40] La etiqueta RTA, a diferencia de las etiquetas ICRA, no requiere que un webmaster complete un cuestionario o se registre para usarla. Al igual que ICRA, la etiqueta RTA es gratuita. Ambas etiquetas son reconocidas por una amplia variedad de software de control de contenido .
El sistema de clasificación voluntaria de contenido (VCR) fue ideado por Solid Oak Software para su software de filtrado CYBERsitter , como una alternativa al sistema PICS, que algunos críticos consideraron demasiado complejo. Emplea etiquetas de metadatos HTML incrustadas en documentos de páginas web para especificar el tipo de contenido incluido en el documento. Solo se especifican dos niveles, para adultos y para adultos , lo que hace que la especificación sea extremadamente sencilla.
El Organismo Asesor de Seguridad en Internet de Australia tiene información sobre "consejos prácticos sobre seguridad en Internet, control parental y filtros para la protección de niños, estudiantes y familias" que también incluye bibliotecas públicas. [41]
NetAlert, el software que el gobierno australiano puso a disposición de forma gratuita, fue supuestamente pirateado por un estudiante de 16 años, Tom Wood, menos de una semana después de su lanzamiento en agosto de 2007. Wood supuestamente eludió el filtro de 84 millones de dólares en aproximadamente media hora para poner de relieve los problemas con el enfoque del gobierno respecto del filtrado de contenidos de Internet. [42]
El Gobierno australiano ha introducido una legislación que exige a los ISP "restringir el acceso a contenido restringido por edad (contenido comercial MA15+ y contenido R18+) alojado en Australia o proporcionado desde Australia", que debía entrar en vigor el 20 de enero de 2008, conocido como Cleanfeed . [43]
Cleanfeed es un sistema de filtrado de contenidos a nivel de ISP que se ha propuesto y que fue propuesto por la oposición del Partido Laborista Australiano liderado por Beazley en un comunicado de prensa de 2006, con la intención de proteger a los niños que eran vulnerables debido al supuesto analfabetismo informático de sus padres. Se anunció el 31 de diciembre de 2007 como una política que implementaría el gobierno del ALP de Rudd , y las pruebas iniciales en Tasmania han producido un informe de 2008. Cleanfeed está financiado con el presupuesto actual y está avanzando hacia una manifestación de interés para realizar pruebas en vivo con los ISP en 2008. Han surgido críticas y oposición pública, lideradas por la EFA y que han obtenido la atención irregular de los medios de comunicación dominantes, con una mayoría de australianos que, según se informa, están "firmemente en contra" de su implementación. [44] Las críticas incluyen su costo, su inexactitud (será imposible garantizar que sólo se bloqueen los sitios ilegales) y el hecho de que será obligatorio, lo que puede verse como una intrusión en los derechos de libertad de expresión. [44] Otro punto de crítica importante ha sido que, aunque se afirma que el filtro detiene ciertos materiales, las redes clandestinas que comercian con esos materiales no se verán afectadas. El filtro también podría proporcionar una falsa sensación de seguridad a los padres, que podrían supervisar menos a sus hijos mientras utilizan Internet, consiguiendo el efecto exactamente opuesto. [ ¿ Investigación original? ] Cleanfeed es una responsabilidad de la cartera del senador Conroy .
En Dinamarca, la política establecida es la de "impedir que se acceda a sitios de Internet inapropiados desde las bibliotecas infantiles de todo el país". [45] "Es importante que todas las bibliotecas del país tengan la oportunidad de proteger a los niños contra el material pornográfico cuando utilizan los ordenadores de la biblioteca. Para mí, como Ministro de Cultura, es una prioridad fundamental asegurarme de que los niños puedan navegar por Internet de forma segura en las bibliotecas", afirma Brian Mikkelsen en un comunicado de prensa del Ministerio de Cultura danés". [46]
Muchas bibliotecas del Reino Unido, como la Biblioteca Británica [47] y las bibliotecas públicas de las autoridades locales [48], aplican filtros al acceso a Internet. Según una investigación realizada por el Radical Librarians Collective, al menos el 98% de las bibliotecas públicas aplican filtros, que incluyen categorías como "interés LGBT", "aborto" y "cuestionable". [49] Algunas bibliotecas públicas bloquean los sitios web de préstamos de día de pago [50]
El uso de filtros de Internet o software de control de contenido varía ampliamente en las bibliotecas públicas de los Estados Unidos, ya que las políticas de uso de Internet las establece la junta de bibliotecas local. Muchas bibliotecas adoptaron filtros de Internet después de que el Congreso condicionara la recepción de descuentos por servicio universal al uso de filtros de Internet a través de la Ley de Protección Infantil en Internet (CIPA). Otras bibliotecas no instalan software de control de contenido, creyendo que las políticas de uso aceptable y los esfuerzos educativos abordan el problema del acceso de los niños a contenido inapropiado para su edad, al tiempo que preservan el derecho de los usuarios adultos a acceder libremente a la información. Algunas bibliotecas utilizan filtros de Internet en computadoras utilizadas únicamente por niños. Algunas bibliotecas que emplean software de control de contenido permiten que el software se desactive caso por caso mediante una solicitud a un bibliotecario; las bibliotecas que están sujetas a la CIPA deben tener una política que permita a los adultos solicitar que se desactive el filtro sin tener que explicar el motivo de su solicitud.
Muchos expertos legales creen que una serie de casos legales, en particular Reno v. American Civil Liberties Union , establecieron que el uso de software de control de contenido en bibliotecas es una violación de la Primera Enmienda. [51] La Ley de Protección Infantil en Internet [CIPA] y el caso de junio de 2003 Estados Unidos v. Asociación Americana de Bibliotecas encontraron que la CIPA era constitucional como condición impuesta a la recepción de fondos federales, afirmando que las preocupaciones de la Primera Enmienda se disiparon por la disposición de la ley que permitía a los usuarios adultos de la biblioteca tener el software de filtrado desactivado, sin tener que explicar las razones de su solicitud. Sin embargo, la decisión de la pluralidad dejó abierta una futura impugnación constitucional "tal como se aplicó".
En noviembre de 2006, se presentó una demanda contra el Distrito Bibliotecario Regional del Centro Norte (NCRL) en el estado de Washington por su política de negarse a desactivar las restricciones a pedido de usuarios adultos, pero la CIPA no fue cuestionada en ese asunto. [52] En mayo de 2010, la Corte Suprema del Estado de Washington emitió una opinión después de que se le pidió que certificara una cuestión remitida por el Tribunal de Distrito de los Estados Unidos para el Distrito Este de Washington: "Si una biblioteca pública, de conformidad con el Artículo I, § 5 de la Constitución de Washington, puede filtrar el acceso a Internet para todos los usuarios sin desactivar los sitios web que contienen discursos protegidos por la constitución a pedido de un usuario adulto de la biblioteca". La Corte Suprema del Estado de Washington dictaminó que la política de filtrado de Internet de NCRL no violaba el Artículo I, Sección 5 de la Constitución del Estado de Washington. El Tribunal dijo: "Nos parece que la política de filtrado del NCRL es razonable y está en consonancia con su misión y con estas políticas, y es neutral en cuanto a puntos de vista. Parece que en este caso no existe ninguna violación basada en el contenido del artículo I, sección 5. La misión esencial del NCRL es promover la lectura y el aprendizaje permanente. Como sostiene el NCRL, es razonable imponer restricciones al acceso a Internet para mantener un entorno que sea propicio para el estudio y el pensamiento contemplativo". El caso volvió al tribunal federal.
En marzo de 2007, Virginia aprobó una ley similar a la CIPA que exige que las bibliotecas públicas que reciben fondos estatales utilicen software de control de contenidos. Al igual que la CIPA, la ley exige que las bibliotecas desactiven los filtros para los usuarios adultos de la biblioteca cuando el usuario así lo solicite. [53]
En general, el filtrado de contenidos puede ser "completamente eludido por personas con conocimientos técnicos". El bloqueo de contenidos en un dispositivo "no garantiza que los usuarios no puedan encontrar una forma de evitar el filtro". [54] Los proveedores de contenidos pueden cambiar las URL o las direcciones IP para eludir el filtrado. Las personas con conocimientos técnicos pueden utilizar un método diferente empleando varios dominios o URL que dirijan a una dirección IP compartida donde hay contenido restringido. Esta estrategia no evita el filtrado de paquetes IP , pero puede evadir el envenenamiento de DNS y los servidores proxy web . Además, los perpetradores pueden utilizar sitios web reflejados que evitan los filtros. [55]
Algunos programas pueden ser eludidos exitosamente utilizando protocolos alternativos como FTP o telnet o HTTPS , realizando búsquedas en un idioma diferente, utilizando un servidor proxy o un evasor como Psiphon . También las páginas web almacenadas en caché devueltas por Google u otras búsquedas podrían eludir algunos controles. Los servicios de sindicación web pueden proporcionar rutas alternativas para el contenido. Algunos de los programas peor diseñados pueden ser cerrados matando sus procesos: por ejemplo, en Microsoft Windows a través del Administrador de tareas de Windows , o en Mac OS X usando Forzar salida o Monitor de actividad . Existen numerosas soluciones alternativas y contras a las soluciones alternativas de los creadores de software de control de contenido. Los servicios de Google a menudo son bloqueados por filtros, pero estos pueden ser eludidos más a menudo utilizando https:// en lugar de http:// ya que el software de filtrado de contenido no puede interpretar el contenido bajo conexiones seguras (en este caso SSL). [ necesita actualización ]
Se puede utilizar una VPN cifrada como medio para eludir el software de control de contenido, especialmente si este software está instalado en una puerta de enlace de Internet o un cortafuegos. Otras formas de eludir un filtro de control de contenido incluyen sitios de traducción y establecer una conexión remota con un dispositivo sin censura. [56]
Algunos proveedores de servicios de Internet ofrecen opciones de control parental . Otros ofrecen software de seguridad que incluye controles parentales. Mac OS X v10.4 ofrece controles parentales para varias aplicaciones ( Mail , Finder , iChat , Safari y Dictionary ). El sistema operativo Windows Vista de Microsoft también incluye software de control de contenido.
La tecnología de filtrado de contenido existe en dos formas principales: puerta de enlace de aplicaciones o inspección de paquetes . Para el acceso HTTP, la puerta de enlace de aplicaciones se denomina proxy web o simplemente proxy. Estos proxys web pueden inspeccionar tanto la solicitud inicial como la página web devuelta utilizando reglas arbitrariamente complejas y no devolverán ninguna parte de la página al solicitante hasta que se tome una decisión. Además, pueden realizar sustituciones en todo o en parte del resultado devuelto. Los filtros de inspección de paquetes no interfieren inicialmente con la conexión al servidor, sino que inspeccionan los datos de la conexión a medida que pasan; en algún momento, el filtro puede decidir que la conexión debe filtrarse y luego la desconectará inyectando un TCP-Reset o un paquete falsificado similar. Las dos técnicas se pueden utilizar juntas con el filtro de paquetes que monitorea un enlace hasta que ve una conexión HTTP que comienza a una dirección IP que tiene contenido que necesita filtrado. Luego, el filtro de paquetes redirige la conexión al proxy web que puede realizar un filtrado detallado en el sitio web sin tener que pasar por todas las conexiones sin filtrar. Esta combinación es bastante popular porque puede reducir significativamente el costo del sistema.
Existen limitaciones para el filtrado de paquetes a nivel de IP, ya que puede hacer que todo el contenido web asociado a una dirección IP en particular quede inaccesible. Esto puede resultar en el bloqueo involuntario de sitios legítimos que comparten la misma dirección IP o dominio. Por ejemplo, los sitios web universitarios suelen emplear varios dominios bajo una misma dirección IP . Además, el filtrado de paquetes a nivel de IP se puede superar utilizando una dirección IP distinta para cierto contenido mientras se sigue estando vinculado al mismo dominio o servidor. [57]
El software de control de contenido basado en pasarela puede ser más difícil de eludir que el software de escritorio, ya que el usuario no tiene acceso físico al dispositivo de filtrado. Sin embargo, muchas de las técnicas descritas en la sección Cómo eludir filtros aún funcionan.
{{cite book}}
: |work=
ignorado ( ayuda ){{cite book}}
: |work=
ignorado ( ayuda )