Na LLYC acreditamos que, através do Marketing e Corporate Affairs, podemos impulsionar o progresso social. Por isso, consciencializados para a igualdade de género, lançámos, mais um ano, uma iniciativa para que cada vez mais pessoas se envolvam em tornar a igualdade entre homens e mulheres numa realidade.

O nosso relatório “Desfocadas”, sobre o tratamento das mensagens nos meios de comunicação social on-line e das mensagens nas redes sociais, chega a uma conclusão clara: ainda há trabalho a fazer para garantir que a cobertura mediática da violência de género cumpre adequadamente as regras deontológicas internacionais, o que é ainda mais acentuado nas menções nas redes sociais.

Neste caminho de tons roxos, os meios de comunicação social têm um papel fundamental na sociedade para promover uma mudança real. O seu trabalho informativo tem um impacto muito importante na formação dos nossos pensamentos e opiniões, influenciando diretamente as estruturas e os sistemas sociais.

É por isso que, por ocasião do dia 8 de março, Dia Internacional da Mulher, promovemos uma iniciativa sobre o tratamento da utilização da linguagem nos meios de comunicação on-line e nas mensagens nas redes sociais e na qual analisamos a parcialidade e o poder que isso exerce no público-alvo em relação ao machismo, aos papéis e aos estereótipos sociais.

Podemos ajudar
a mudar a situação?

Assim nasce a ideia de criar The Purple Check, uma contribuição da LLYC para os meios de comunicação social e público em geral que tem o objetivo de mudar os dados do nosso relatório “Desfocadas”.

Uma inteligência artificial orientada para a deteção da parcialidade na linguagem que fará a verificação das palavras utilizadas em qualquer título que introduzirmos. Analisará a existência de parcialidade e fará uma recomendação de como dizer o mesmo para informar sem promover a desigualdade e assim devolver o foco à comunicação.

Todos temos parcialidades e hábitos adquiridos. Por isso, embora consigamos mudá-los, lançámos uma ferramenta que complementa o nosso relatório e que está à disposição de todos, que nos ajuda a consciencializar para o foco das notícias de violência de género e lança uma mensagem sobre a importância de uma visão de igualdade, independentemente de gerar ou receber a informação.

Podemos ajudar
a mudar a situação?

Assim nasce a ideia de criar The Purple Check, uma contribuição da LLYC para os meios de comunicação social e público em geral que tem o objetivo de mudar os dados do nosso relatório “Desfocadas”.

Uma inteligência artificial orientada para a deteção da parcialidade na linguagem que fará a verificação das palavras utilizadas em qualquer título que introduzirmos. Analisará a existência de parcialidade e fará uma recomendação de como dizer o mesmo para informar sem promover a desigualdade e assim devolver o foco à comunicação.

Podemos ajudar
a mudar a situação?

Todos temos parcialidades e hábitos adquiridos. Por isso, embora consigamos mudá-los, lançámos uma ferramenta que complementa o nosso relatório e que está à disposição de todos, que nos ajuda a consciencializar para o foco das notícias de violência de género e lança uma mensagem sobre a importância de uma visão de igualdade, independentemente de gerar ou receber a informação.

Como utilizá-la?

  1. Introduza o título ou o texto que quer analisar e prima o botão de verificação roxo.
  2. Aguarde alguns segundos para que a ferramenta analise as palavras.
  3. Conheça o resultado.
  4. Se a ferramenta detetar parcialidade, poderá ver uma recomendação de como dizer o mesmo sem desigualdade na linguagem utilizada.
Ainda há trabalho a ser feito para garantir que a cobertura mediática relacionada com a violência de género cumpra adequadamente as regras deontológicas internacionais.

Por isso, todos os anos, a partir da área de conhecimento, realizamos estudos em 12 países graças às capacidades dos nossos profissionais em Deep Learning e metodologias de Data Analytics. Neste relatório, analisamos a conversação social de mais de 226,2 milhões de notícias, 5,4 das quais sobre violência de género e 14 milhões de mensagens no X ligadas à violência de género.

Na investigação foram utilizados Large Language Models (LLM- GPT4) para identificar e isolar descritores direcionados à vítima e ao agressor, em notícias públicas obtidas através de modelos de scrapers, assim como técnicas de Processamento de Linguagem Natural (NLP) em 4 idiomas para analisar o cumprimento das 21 regras de boas práticas derivadas das diretrizes de Mediterranean Network of Regulatory Authorities (MNRA) e United Nations Development Programme (UNDP)

O nosso contributo, baseado na inovação e no nosso próprio modelo de IA, foca-se em tornar a realidade visível e em conceber ferramentas que criem consciência sobre problemáticas sociais, como a violência de género, ao implementar nos nossos relatórios um tratamento mais objetivo, equilibrado e justo da informação que é de livre acesso a qualquer pessoa.

DESCARREGUE O RELATÓRIO COMPLETO

E saiba como o realizámos.

Informar e consciencializar a sociedade para a luta contra a violência de género é um assunto de interesse geral e de direitos humanos. Apenas se todos nós detetarmos a parcialidade é que poderemos transformar a linguagem numa ferramenta de mudança.

Meios de comunicação social e redes sociais:

no caminho para uma abordagem correta sobre a violência de género.