Iniciativa de salud comunitaria
Ayudar a la comunidad de voluntarios de Wikimedia a reducir el nivel de acoso y comportamiento disruptivo en nuestros proyectos.
Los equipos de Tecnología Comunitaria y Participación Comunitaria de la Fundación Wikimedia están trabajando en un proyecto plurianual de investigación, desarrollo de productos y desarrollo de políticas para ayudar a la comunidad de voluntarios de Wikimedia a reducir el nivel de acoso y comportamiento disruptivo en nuestros proyectos.
Esta iniciativa aborda las principales formas de acoso denunciadas en la Encuesta sobre acoso de 2015 de la Fundación Wikimedia, que cubre una amplia gama de comportamientos diferentes: vandalismo de contenido, acecho, insultos, troleo, doxing, discriminación: cualquier cosa que tenga como objetivo a individuos para obtener una atención injusta y dañina.
Esto dará como resultado mejoras tanto en las herramientas del software MediaWiki (ver #Herramientas contra el acoso) como en las políticas sobre las comunidades que más sufren el comportamiento disruptivo (ver #Aumento y aplicación de políticas). Estas mejoras deben realizarse con la participación y el apoyo de los voluntarios que utilizarán las herramientas para que nuestros esfuerzos tengan éxito (ver #Aportes de la comunidad).
En Wikipedia y otros proyectos Wikimedia, el acoso ocurre típicamente en las páginas de discusión (artículo, proyecto y usuario), tablones de anuncios, páginas de usuario y resúmenes de edición. Las guerras de edición y el acoso a los wikis también pueden ser formas de acoso. Las disputas de conducta generalmente se originan a partir de disputas de contenido, como desacuerdos sobre la confiabilidad de una fuente, la neutralidad de un punto de vista o el formato del artículo y la jerarquía del contenido. Estas disputas pueden convertirse en acoso en el punto en que un editor deja de pensar en esto como una discusión sobre ideas y comienza a asociar al oponente con la idea, convirtiendo al otro editor en un enemigo, al que hay que expulsar del sitio. Este giro poco saludable es más probable que ocurra cuando el contenido está estrechamente asociado con la identidad (género, raza, orientación sexual, origen nacional), porque es fácil para el acosador pensar en la víctima como una representación viva de la idea opuesta. Esto es especialmente cierto cuando la víctima es miembro de un grupo históricamente desfavorecido y ha revelado información sobre su identidad durante el transcurso de su tiempo en los proyectos.
La comunidad de Wikipedia en inglés (y la mayoría de los demás proyectos) han redactado políticas de conducta para que sus comunidades las sigan, incluidas políticas sobre cortesía , acoso , ataques personales y resolución de disputas . El espíritu de estas políticas es sincero, pero su aplicación es difícil dadas las deficiencias en el software de MediaWiki y la proporción de colaboradores respecto de administradores activos. [1] Los procesos de resolución de disputas alientan a los usuarios a intentar resolver los problemas entre ellos antes de llevar la situación a la atención de los administradores en el Tablón de anuncios del administrador y, eventualmente, a ArbCom en situaciones extremas. [2]
El acoso en línea es un problema en prácticamente todas las propiedades web donde los usuarios interactúan. En 2014, el Pew Research Center concluyó que el 40% de todos los usuarios de Internet han sido víctimas de acoso en línea. [3] En 2015, la Fundación Wikimedia realizó una encuesta sobre acoso con 3.845 participantes usuarios de Wikimedia para comprender mejor el acoso que ocurre en los proyectos Wikimedia. El 38% de los encuestados reconoció con confianza que había sido acosado, mientras que el 51% de los encuestados presenció el acoso de otros. Los tipos de acoso denunciados con mayor frecuencia incluyeron:
En 2016-2017, los investigadores de Jigsaw y Wikimedia utilizaron técnicas de aprendizaje automático para evaluar el acoso en Wikipedia en el proyecto de investigación Detox. Entre los hallazgos más importantes se incluyen los siguientes:
Esta investigación es esclarecedora y uno de los impulsos para esta Iniciativa de Salud Comunitaria, pero es sólo el comienzo de la investigación que debemos realizar para que este esfuerzo tenga éxito.
La comunidad Wikimedia lleva mucho tiempo luchando por proteger a sus miembros de usuarios malintencionados o malintencionados. El conjunto de herramientas administrativas que los administradores de proyectos pueden utilizar para bloquear a los usuarios disruptivos de sus proyectos no ha cambiado significativamente desde los primeros días del software MediaWiki. Los voluntarios han pedido a la Fundación Wikimedia que mejore las herramientas de bloqueo en varias ocasiones, entre ellas:
Al prepararnos para esta iniciativa, hemos estado discutiendo los problemas con las herramientas y los procesos actuales con los administradores y funcionarios activos. Estas discusiones han dado como resultado mejoras solicitadas en varias áreas clave donde los administradores y funcionarios ven necesidades inmediatas: mejores sistemas de informes para los voluntarios, formas más inteligentes de detectar y abordar problemas de manera temprana, y mejores herramientas y flujos de trabajo relacionados con el proceso de bloqueo. Estas conversaciones se mantendrán durante todo el proceso. La participación y los aportes de la comunidad serán vitales para nuestro éxito.
En enero de 2017, la Fundación Wikimedia recibió una financiación inicial de 500.000 dólares estadounidenses de la Fundación Craig Newmark y del Fondo de beneficencia de Craigslist para apoyar esta iniciativa. [5] Las dos subvenciones iniciales, cada una de 250.000 dólares estadounidenses, apoyarán el desarrollo de herramientas para editores y personal voluntarios con el fin de reducir el acoso en Wikipedia y bloquear a los acosadores. La propuesta de subvención está disponible para su revisión en Wikimedia Commons .
Existen desafíos para medir el acoso, pero aun así queremos asegurarnos de que nuestro trabajo tenga un impacto en la comunidad. Las ideas actuales incluyen:
Recopilar, incorporar y analizar las opiniones de la comunidad es fundamental para el éxito de esta iniciativa. Estamos creando funciones para que las utilicen nuestras comunidades; si diseñamos en el vacío, nuestras decisiones seguramente fracasarán.
Los planes presentados en la subvención, en esta página y en otros lugares seguramente cambiarán con el tiempo a medida que recopilemos los aportes de nuestra comunidad (incluidas las víctimas de acoso, los colaboradores y los administradores), aprendamos de nuestra investigación y aprendamos del software que creamos. Los aportes de la comunidad incluyen, entre otros:
Durante el transcurso de esta iniciativa, planeamos comunicarnos con la comunidad a través de la comunicación wiki habitual (páginas de discusión, correo electrónico, IRC), además de talleres en vivo, talleres en persona en hack-a-thons y Wikimanias, y consultas comunitarias en línea. En este momento, el mejor lugar para discutir la iniciativa de salud comunitaria es en Wikipedia Talk:Iniciativa de salud comunitaria .
En resumen, queremos crear software que permita a los colaboradores y administradores tomar decisiones informadas y oportunas cuando se produce un caso de acoso. Se han identificado cuatro áreas de enfoque en las que las nuevas herramientas podrían resultar beneficiosas para abordar y responder al acoso:
Queremos que a los editores les resulte más fácil y eficiente identificar y señalar conductas acosadoras. Actualmente, nos preguntamos cómo se puede prevenir el acoso antes de que comience y cómo se pueden resolver incidentes menores antes de que se conviertan en problemas más graves e incívicos.
Características potenciales:
Según la investigación de Detox, el acoso no se denuncia lo suficiente en la Wikipedia en inglés. [4] Ninguna víctima de acoso debería abandonar la edición porque se siente impotente para denunciar el abuso. Queremos ofrecer a las víctimas mejores formas de denunciar casos que sean más respetuosas con su privacidad, menos caóticas y menos estresantes que el flujo de trabajo actual. Actualmente, la carga de la prueba recae sobre la víctima para demostrar su propia inocencia y la culpa del acosador, mientras que creemos que el software MediaWiki debería realizar el trabajo pesado.
Características potenciales:
El dominio de las diferencias, los historiales y las páginas especiales de MediaWiki es fundamental para que los administradores puedan analizar y evaluar la verdadera secuencia de eventos de una disputa de conducta. Las herramientas creadas por voluntarios, como Editor Interaction Analyzer y WikiBlame, ayudan, pero los procesos actuales consumen mucho tiempo. Queremos crear herramientas que ayuden a los voluntarios a comprender y evaluar los casos de acoso, e informar sobre la mejor manera de responder.
Características potenciales:
Queremos mejorar las herramientas existentes y crear nuevas herramientas, si es necesario, para eliminar a los actores problemáticos de las comunidades o de ciertas áreas dentro del sitio y hacer que sea más difícil que alguien que está bloqueado en el sitio regrese.
Algunas de estas mejoras ya se están implementando como parte de la lista de deseos de la comunidad de 2016. Consulte meta:Tecnología de la comunidad/Herramientas de bloqueo para obtener más información.
Características potenciales:
Además de crear nuevas herramientas, queremos trabajar con nuestras comunidades más grandes para garantizar que sus políticas de conducta de usuarios sean claras y efectivas y que los administradores responsables de hacerlas cumplir estén bien preparados.
Comenzando con la Wikipedia en inglés, una gran comunidad de la que se puede obtener una gran cantidad de datos, proporcionaremos a los colaboradores investigaciones y análisis sobre cómo los problemas de comportamiento en la Wikipedia en inglés a) se abordan en las políticas y b) se aplican en la comunidad, en particular en los tablones de anuncios donde se discuten los problemas y se toman medidas. Proporcionaremos investigaciones sobre formas alternativas de abordar problemas específicos, investigaremos su eficacia e identificaremos diferentes enfoques que han tenido éxito en otros proyectos de Wikimedia. Esto ayudará a nuestras comunidades a realizar cambios informados en las prácticas existentes.
Para ver las notas semanales, consulte Notas y Notas de reuniones. Para ver los anuncios públicos, consulte Actualizaciones .
Actualmente, el equipo está discutiendo la lista negra de notificaciones de Echo con la comunidad de Wikimedia, está desarrollando herramientas de confianza y seguridad para el departamento SuSa y está investigando arbitraje, AbuseFilter y tablones de anuncios de administradores en Wikipedia en inglés.
Actualmente, nuestros proyectos están priorizados en el panel de trabajo Anti-Harassment Phabricator en la columna 'Epic backlog'. Invitamos a todos a compartir sus opiniones sobre nuestra priorización de los tickets de Phabricator, en la página de discusión de esta página o enviándonos un correo electrónico .
Los proyectos son priorizados por el gerente de producto, teniendo en cuenta:
Marzo 2017 – Junio 2017
Julio 2017 - Junio 2018
Julio 2018 – Junio 2019
{{cite journal}}
: Requiere citar revista |journal=
( ayuda ){{cite journal}}
: Requiere citar revista |journal=
( ayuda )