Wikipedia:Iniciativa de salud comunitaria

Iniciativa de salud comunitaria
Ayudar a la comunidad de voluntarios de Wikimedia a reducir el nivel de acoso y comportamiento disruptivo en nuestros proyectos.

Los equipos de Tecnología Comunitaria y Participación Comunitaria de la Fundación Wikimedia están trabajando en un proyecto plurianual de investigación, desarrollo de productos y desarrollo de políticas para ayudar a la comunidad de voluntarios de Wikimedia a reducir el nivel de acoso y comportamiento disruptivo en nuestros proyectos.

Esta iniciativa aborda las principales formas de acoso denunciadas en la Encuesta sobre acoso de 2015 de la Fundación Wikimedia, que cubre una amplia gama de comportamientos diferentes: vandalismo de contenido, acecho, insultos, troleo, doxing, discriminación: cualquier cosa que tenga como objetivo a individuos para obtener una atención injusta y dañina.

Esto dará como resultado mejoras tanto en las herramientas del software MediaWiki (ver #Herramientas contra el acoso) como en las políticas sobre las comunidades que más sufren el comportamiento disruptivo (ver #Aumento y aplicación de políticas). Estas mejoras deben realizarse con la participación y el apoyo de los voluntarios que utilizarán las herramientas para que nuestros esfuerzos tengan éxito (ver #Aportes de la comunidad).

Fondo

Acoso en los proyectos Wikimedia

En Wikipedia y otros proyectos Wikimedia, el acoso ocurre típicamente en las páginas de discusión (artículo, proyecto y usuario), tablones de anuncios, páginas de usuario y resúmenes de edición. Las guerras de edición y el acoso a los wikis también pueden ser formas de acoso. Las disputas de conducta generalmente se originan a partir de disputas de contenido, como desacuerdos sobre la confiabilidad de una fuente, la neutralidad de un punto de vista o el formato del artículo y la jerarquía del contenido. Estas disputas pueden convertirse en acoso en el punto en que un editor deja de pensar en esto como una discusión sobre ideas y comienza a asociar al oponente con la idea, convirtiendo al otro editor en un enemigo, al que hay que expulsar del sitio. Este giro poco saludable es más probable que ocurra cuando el contenido está estrechamente asociado con la identidad (género, raza, orientación sexual, origen nacional), porque es fácil para el acosador pensar en la víctima como una representación viva de la idea opuesta. Esto es especialmente cierto cuando la víctima es miembro de un grupo históricamente desfavorecido y ha revelado información sobre su identidad durante el transcurso de su tiempo en los proyectos.

La comunidad de Wikipedia en inglés (y la mayoría de los demás proyectos) han redactado políticas de conducta para que sus comunidades las sigan, incluidas políticas sobre cortesía , acoso , ataques personales y resolución de disputas . El espíritu de estas políticas es sincero, pero su aplicación es difícil dadas las deficiencias en el software de MediaWiki y la proporción de colaboradores respecto de administradores activos. [1] Los procesos de resolución de disputas alientan a los usuarios a intentar resolver los problemas entre ellos antes de llevar la situación a la atención de los administradores en el Tablón de anuncios del administrador y, eventualmente, a ArbCom en situaciones extremas. [2]

Encuesta sobre acoso 2015 - Informe de resultados

El acoso en línea es un problema en prácticamente todas las propiedades web donde los usuarios interactúan. En 2014, el Pew Research Center concluyó que el 40% de todos los usuarios de Internet han sido víctimas de acoso en línea. [3] En 2015, la Fundación Wikimedia realizó una encuesta sobre acoso con 3.845 participantes usuarios de Wikimedia para comprender mejor el acoso que ocurre en los proyectos Wikimedia. El 38% de los encuestados reconoció con confianza que había sido acosado, mientras que el 51% de los encuestados presenció el acoso de otros. Los tipos de acoso denunciados con mayor frecuencia incluyeron:

  • Vandalismo de contenido (26% de las respuestas)
  • Troleo/insultos (24%)
  • Insultos (17%)
  • Discriminación (14,5%)
  • Acoso (13%)

En 2016-2017, los investigadores de Jigsaw y Wikimedia utilizaron técnicas de aprendizaje automático para evaluar el acoso en Wikipedia en el proyecto de investigación Detox. Entre los hallazgos más importantes se incluyen los siguientes:

  • Sólo el 18% de todos los ataques identificados en Wikipedia en inglés resultaron en un bloqueo o una advertencia.
  • El 67% de los ataques provienen de usuarios registrados.
  • Casi el 50% de todos los ataques provienen de colaboradores con más de 100 ediciones anuales. [4]

Esta investigación es esclarecedora y uno de los impulsos para esta Iniciativa de Salud Comunitaria, pero es sólo el comienzo de la investigación que debemos realizar para que este esfuerzo tenga éxito.

Solicitudes de la comunidad de nuevas herramientas

La comunidad Wikimedia lleva mucho tiempo luchando por proteger a sus miembros de usuarios malintencionados o malintencionados. El conjunto de herramientas administrativas que los administradores de proyectos pueden utilizar para bloquear a los usuarios disruptivos de sus proyectos no ha cambiado significativamente desde los primeros días del software MediaWiki. Los voluntarios han pedido a la Fundación Wikimedia que mejore las herramientas de bloqueo en varias ocasiones, entre ellas:

  • Una encuesta de 2013 de la comunidad alemana de Wikipedia
  • En el marco de la campaña Inspire sobre la brecha de género, que se llevó a cabo en 2014, los miembros de la comunidad expresaron su deseo de contar con mejores sistemas de denuncia para las víctimas de acoso. Este ha sido un tema recurrente en las encuestas, consultas y talleres sobre el tema.
  • en la encuesta de Lista de deseos de la comunidad de 2015
  • en numerosas propuestas de subvenciones de IdeaLab. (Consulte nuestra lista de propuestas relacionadas con nuestro trabajo).
  • y en una serie de solicitudes de Phabricator, entre ellas "Enviar una cookie con cada bloqueo" (noviembre de 2015), "Permitir bloqueos de IP basados ​​en agente de usuario (UA)" (mayo de 2015) y "Limita la creación de cuentas y el envío de correo electrónico por navegador y dirección IP" (julio de 2015). Consulte este ticket para la coordinación de muchas tareas relacionadas con las herramientas de bloqueo.

Al prepararnos para esta iniciativa, hemos estado discutiendo los problemas con las herramientas y los procesos actuales con los administradores y funcionarios activos. Estas discusiones han dado como resultado mejoras solicitadas en varias áreas clave donde los administradores y funcionarios ven necesidades inmediatas: mejores sistemas de informes para los voluntarios, formas más inteligentes de detectar y abordar problemas de manera temprana, y mejores herramientas y flujos de trabajo relacionados con el proceso de bloqueo. Estas conversaciones se mantendrán durante todo el proceso. La participación y los aportes de la comunidad serán vitales para nuestro éxito.

Financiación externa

Propuesta de subvención de 2017 para herramientas contra el acoso en proyectos Wikimedia

En enero de 2017, la Fundación Wikimedia recibió una financiación inicial de 500.000 dólares estadounidenses de la Fundación Craig Newmark y del Fondo de beneficencia de Craigslist para apoyar esta iniciativa. [5] Las dos subvenciones iniciales, cada una de 250.000 dólares estadounidenses, apoyarán el desarrollo de herramientas para editores y personal voluntarios con el fin de reducir el acoso en Wikipedia y bloquear a los acosadores. La propuesta de subvención está disponible para su revisión en Wikimedia Commons .

Objetivos

  • Reducir la cantidad de comportamientos de acoso que ocurren en los proyectos de Wikimedia.
  • Resolver de manera justa un mayor porcentaje de incidentes de acoso que ocurren en los proyectos de Wikimedia.

Medidas potenciales de éxito

Existen desafíos para medir el acoso, pero aun así queremos asegurarnos de que nuestro trabajo tenga un impacto en la comunidad. Las ideas actuales incluyen:

  • Disminuir el porcentaje de comentarios de ataques personales identificables en Wikipedia en inglés, medido a través de Detox, Sherloq o un sistema similar.
  • Aumentar la confianza de los administradores en su capacidad para tomar decisiones precisas en disputas de conducta, medida a través de grupos focales o consultas.
  • Disminuir el porcentaje de usuarios no administradores que informan haber visto acoso en Wikipedia, medido en un seguimiento de la Encuesta sobre acoso de 2015.
  • ...añade ideas aquí o en la página de discusión.

Aporte de la comunidad

Recopilar, incorporar y analizar las opiniones de la comunidad es fundamental para el éxito de esta iniciativa. Estamos creando funciones para que las utilicen nuestras comunidades; si diseñamos en el vacío, nuestras decisiones seguramente fracasarán.

Los planes presentados en la subvención, en esta página y en otros lugares seguramente cambiarán con el tiempo a medida que recopilemos los aportes de nuestra comunidad (incluidas las víctimas de acoso, los colaboradores y los administradores), aprendamos de nuestra investigación y aprendamos del software que creamos. Los aportes de la comunidad incluyen, entre otros:

  • Socializando nuestras metas
  • Generar, refinar, validar y finalizar ideas con las partes interesadas de la comunidad.
  • Conversaciones sobre libertad de expresión versus corrección política. Es muy importante que este proyecto se considere como una forma de abordar los tipos de abusos sobre los que todo el mundo está de acuerdo (el evidente vandalismo de títeres, las amenazas de muerte) y los tipos de abusos sobre los que la gente discrepa (el género, la cultura, etc.). El proyecto no tendrá éxito si se lo considera únicamente como un juego de poder de “justicia social”. [6]

Durante el transcurso de esta iniciativa, planeamos comunicarnos con la comunidad a través de la comunicación wiki habitual (páginas de discusión, correo electrónico, IRC), además de talleres en vivo, talleres en persona en hack-a-thons y Wikimanias, y consultas comunitarias en línea. En este momento, el mejor lugar para discutir la iniciativa de salud comunitaria es en Wikipedia Talk:Iniciativa de salud comunitaria .

Herramientas contra el acoso

En resumen, queremos crear software que permita a los colaboradores y administradores tomar decisiones informadas y oportunas cuando se produce un caso de acoso. Se han identificado cuatro áreas de enfoque en las que las nuevas herramientas podrían resultar beneficiosas para abordar y responder al acoso:

Detección

Queremos que a los editores les resulte más fácil y eficiente identificar y señalar conductas acosadoras. Actualmente, nos preguntamos cómo se puede prevenir el acoso antes de que comience y cómo se pueden resolver incidentes menores antes de que se conviertan en problemas más graves e incívicos.

Características potenciales:

  • Gestión del rendimiento, usabilidad y mejoras de funcionalidad de AbuseFilter
  • Mejoras en la confiabilidad y precisión de ProcseeBot
  • Mejoras anti-falsificación en herramientas pertinentes
  • Características que exponen el vandalismo en el contenido, las guerras de edición, el acoso y el lenguaje acosador a los administradores y al personal de la wiki.

Informes

Según la investigación de Detox, el acoso no se denuncia lo suficiente en la Wikipedia en inglés. [4] Ninguna víctima de acoso debería abandonar la edición porque se siente impotente para denunciar el abuso. Queremos ofrecer a las víctimas mejores formas de denunciar casos que sean más respetuosas con su privacidad, menos caóticas y menos estresantes que el flujo de trabajo actual. Actualmente, la carga de la prueba recae sobre la víctima para demostrar su propia inocencia y la culpa del acosador, mientras que creemos que el software MediaWiki debería realizar el trabajo pesado.

Características potenciales:

  • Un nuevo sistema de denuncia del acoso que no impone la carga de la prueba sobre las víctimas de acoso ni las aleja aún más.

Evaluando

El dominio de las diferencias, los historiales y las páginas especiales de MediaWiki es fundamental para que los administradores puedan analizar y evaluar la verdadera secuencia de eventos de una disputa de conducta. Las herramientas creadas por voluntarios, como Editor Interaction Analyzer y WikiBlame, ayudan, pero los procesos actuales consumen mucho tiempo. Queremos crear herramientas que ayuden a los voluntarios a comprender y evaluar los casos de acoso, e informar sobre la mejor manera de responder.

Características potenciales:

  • Una herramienta robusta de historial de interacción del usuario, que permitirá a los administradores de wiki comprender la interacción entre dos usuarios a lo largo del tiempo y tomar decisiones informadas en casos de acoso.
  • Un sistema privado para que los administradores de wiki recopilen información sobre el historial de los usuarios con casos de acoso y abuso, incluidas restricciones de usuarios y decisiones de arbitraje.
  • Un sistema de panel de control para administradores de wiki que les ayuda a gestionar investigaciones actuales y acciones disciplinarias.
  • Herramientas multiwiki que permiten a los administradores de wiki gestionar casos de acoso en todos los proyectos wiki e idiomas.

Bloqueo

Queremos mejorar las herramientas existentes y crear nuevas herramientas, si es necesario, para eliminar a los actores problemáticos de las comunidades o de ciertas áreas dentro del sitio y hacer que sea más difícil que alguien que está bloqueado en el sitio regrese.

Algunas de estas mejoras ya se están implementando como parte de la lista de deseos de la comunidad de 2016. Consulte meta:Tecnología de la comunidad/Herramientas de bloqueo para obtener más información.

Características potenciales:

  • Herramientas de bloqueo por página y por categoría para hacer cumplir las prohibiciones de temas, lo que ayudará a los administradores de wiki a redirigir a los usuarios que están siendo disruptivos sin bloquearlos completamente para que no puedan contribuir al proyecto; esto hará que los administradores de wiki se sientan más cómodos al tomar acciones decisivas en las primeras etapas de un problema.
  • Herramientas que permiten a los usuarios individuales controlar quién puede comunicarse con ellos a través de notificaciones de Echo, correo electrónico y espacios de usuario.
  • Hacer que las herramientas globales CheckUser funcionen en todos los proyectos, mejorando las herramientas que hacen coincidir nombres de usuario con direcciones IP y agentes de usuario para que puedan verificar contribuciones en todos los proyectos de Wikimedia en una sola consulta.
  • Herramientas de bloqueo de títeres de calcetín.

Crecimiento y aplicación de políticas

Además de crear nuevas herramientas, queremos trabajar con nuestras comunidades más grandes para garantizar que sus políticas de conducta de usuarios sean claras y efectivas y que los administradores responsables de hacerlas cumplir estén bien preparados.

Comenzando con la Wikipedia en inglés, una gran comunidad de la que se puede obtener una gran cantidad de datos, proporcionaremos a los colaboradores investigaciones y análisis sobre cómo los problemas de comportamiento en la Wikipedia en inglés a) se abordan en las políticas y b) se aplican en la comunidad, en particular en los tablones de anuncios donde se discuten los problemas y se toman medidas. Proporcionaremos investigaciones sobre formas alternativas de abordar problemas específicos, investigaremos su eficacia e identificaremos diferentes enfoques que han tenido éxito en otros proyectos de Wikimedia. Esto ayudará a nuestras comunidades a realizar cambios informados en las prácticas existentes.

Calendario y priorización del trabajo

Actualizaciones pasadas

Para ver las notas semanales, consulte Notas y Notas de reuniones. Para ver los anuncios públicos, consulte Actualizaciones .

Estado actual

Actualmente, el equipo está discutiendo la lista negra de notificaciones de Echo con la comunidad de Wikimedia, está desarrollando herramientas de confianza y seguridad para el departamento SuSa y está investigando arbitraje, AbuseFilter y tablones de anuncios de administradores en Wikipedia en inglés.

Priorización

Actualmente, nuestros proyectos están priorizados en el panel de trabajo Anti-Harassment Phabricator en la columna 'Epic backlog'. Invitamos a todos a compartir sus opiniones sobre nuestra priorización de los tickets de Phabricator, en la página de discusión de esta página o enviándonos un correo electrónico .

Los proyectos son priorizados por el gerente de producto, teniendo en cuenta:

  • Preparación: ¿Qué está diseñado, definido y listo para el desarrollo? ¿Existen obstáculos?
  • Valor: ¿Qué aportará más valor a nuestros usuarios? ¿Qué resolverá primero los problemas más importantes? ¿Nuestra investigación ha identificado oportunidades interesantes? ¿Nuestras funciones anteriores han identificado nuevas oportunidades o problemas?
  • Viabilidad: ¿Qué podemos lograr con nuestro tiempo y la capacidad de desarrollo? ¿Estamos preparados técnicamente? ¿Contamos con el apoyo de desarrolladores externos que aceleren nuestro trabajo?
  • Apoyo : ¿Qué ha recibido apoyo de los usuarios que participan en los flujos de trabajo actuales? ¿Qué ideas han recibido impulso de las personas afectadas actualmente por el acoso en Wikipedia?

Cronología aproximada

Marzo 2017 – Junio ​​2017

  • Contratar e integrar a los nuevos empleados del equipo.
  • El inicio de nuevos proyectos de investigación para ayudar al equipo a obtener una comprensión más profunda de las necesidades y problemas actuales de la comunidad.
  • Discusiones con la comunidad de voluntarios en su conjunto, así como discusiones específicas con funcionarios del wiki que manejan comportamientos disruptivos, personas que han experimentado y presenciado acoso en nuestros wikis y otras partes interesadas importantes.
  • Trabajo de desarrollo en algunas de las herramientas que la comunidad ya ha identificado como que necesitan mejoras, muy probablemente AbuseFilter.

Julio 2017 - Junio ​​2018

  • Investigación:
    • Investigación centrada en el Sistema de Denuncia de Acoso.
    • Trabajar con la comunidad para crear un nuevo grupo de usuarios para voluntarios que quieran trabajar específicamente en casos de acoso. El defensor de la comunidad trabajará con el equipo de Apoyo y Seguridad para brindar capacitación y apoyo a estos voluntarios.
  • Diseño, construcción, lanzamiento e iteración de:
    • Mejoras de usabilidad y rendimiento de AbuseFilter
    • Mejoras en la precisión de las herramientas anti-falsificación en múltiples herramientas pertinentes
    • Una herramienta robusta de historial de interacciones, similar al analizador de interacciones de edición
    • Un sistema privado para que los administradores discutan y evalúen incidentes de acoso.
    • herramientas de bloqueo por página
    • Mejoras en las herramientas CheckUser entre proyectos
    • Herramientas robustas de identificación y bloqueo de títeres de calcetín

Julio 2018 – Junio ​​2019

  • Diseño, construcción, lanzamiento e iteración de:
    • El sistema de denuncia de acoso
    • Herramientas que sacan a la luz situaciones de acoso y vandalismo en ciernes para los líderes comunitarios antes de que se conviertan en incidentes a gran escala.
    • Un sistema de panel de control para administradores de wiki que les ayuda a gestionar investigaciones actuales y acciones disciplinarias.
    • Herramientas multiwiki que permiten a los administradores de wiki gestionar casos de acoso en distintos proyectos wiki e idiomas.
  • Internacionalizando todas las herramientas que hemos creado hasta la fecha

Véase también

  • Iniciativa de salud comunitaria/Enlaces para más enlaces.
  • Iniciativa de salud comunitaria/Notas para los miembros del equipo.
  • Iniciativa de salud comunitaria/El equipo para obtener una lista del personal de WMF que trabaja en esta iniciativa.
  • Iniciativa de salud comunitaria/Wikipedia en inglés: políticas de acoso y aplicación para análisis y documentación
  • Iniciativa de salud comunitaria/Paneles de control utilizados por los administradores para realizar un seguimiento de los informes de acoso para su análisis y documentación
  • Iniciativa de salud comunitaria/Herramienta de historial de interacción del usuario para análisis y documentación
  • Iniciativa de salud comunitaria/AbuseFilter
  • Tablero de trabajo del fabricante
  • Investigación: Encuesta sobre acoso 2015
  • Investigación: Desintoxicación
  • Campaña Inspire sobre “Cómo abordar el acoso” (junio de 2016)
  • Declaración de la Junta sobre cultura comunitaria saludable, inclusión y espacios seguros (noviembre de 2016)

Referencias

  1. ^ "Wikipedia:Lista de administradores/Activos". 13 de febrero de 2017. {{cite journal}}: Requiere citar revista |journal=( ayuda )
  2. ^ "Wikipedia:Acoso § Cómo afrontar el acoso". 12 de febrero de 2017. {{cite journal}}: Requiere citar revista |journal=( ayuda )
  3. ^ Duggan, Maeve (22 de octubre de 2014). "Acoso en línea". Pew Research Center: Internet, Science & Tech . Consultado el 13 de febrero de 2017 .
  4. ^ ab "Algoritmos e insultos: ampliando nuestra comprensión del acoso en Wikipedia – Blog de Wikimedia" . Consultado el 13 de febrero de 2017 .
  5. ^ "La Fundación Wikimedia recibe 500.000 dólares de la Fundación Craig Newmark y del Fondo de beneficencia de Craigslist para apoyar una comunidad Wikimedia saludable e inclusiva – Blog de Wikimedia" . Consultado el 13 de febrero de 2017 .
  6. ^ "Archivo:Propuesta de subvención de la Fundación Wikimedia - Herramientas antiacoso para proyectos Wikimedia - 2017.pdf - Meta" (PDF) . meta.wikimedia.org . Consultado el 14 de febrero de 2017 .
Obtenido de "https://es.wikipedia.org/w/index.php?title=Wikipedia:Iniciativa_de_salud_comunitaria&oldid=1000000000"