Detecção automatizada de contas falsas no LinkedIn

Para manter uma comunidade profissional segura e confiável no LinkedIn, exigimos que cada perfil da plataforma represente exclusivamente uma pessoa real. Uma das maneiras de garantir que as contas sejam verdadeiras é criando sistemas de detecção automatizados em escala para identificar e tomar medidas contra contas falsas. A equipe Anti-Abuse (Antiabuso) do LinkedIn cria os sistemas que nos permitem proteger nossos usuários contra atividades de malfeitores.

Infelizmente, o LinkedIn é alvo de pessoas mal-intencionadas que constantemente tentam criar contas falsas. Há uma ampla variedade sofisticação por trás desses agentes mal-intencionados e a intenção varia. Perfis falsos podem ser usados para realizar diversos tipos de abuso: scraping (coleta de dados), spam, fraude, phishing, entre outros. Ao impedir ou remover prontamente contas falsas na plataforma, garantimos a proteção dos usuários do LinkedIn.

Para criar contramedidas robustas contra diferentes tipos de ataques em nossa rede, empregamos um funil de defesas para detectar e derrubar contas falsas em vários estágios. Nosso objetivo é capturar a maioria das contas falsas o mais rápido possível para evitar danos aos nossos membros.

 

fake accounts funnel of defenses

No topo do funil está a primeira linha de defesa: a pontuação do registro. Para muitos tipos de abuso, os invasores precisam de um grande número de contas falsas para que o ataque seja viável financeiramente. Assim, para interromper proativamente contas falsas em escala, temos modelos de aprendizado de máquina para detectar grupos de contas que parecem ou agem de maneira semelhante, o que implica que foram criadas ou controladas pelo(a) mesmo(a) malfeitor(a).

Cada nova tentativa de cadastro de usuário é avaliada por um modelo de aprendizado de máquina que fornece uma pontuação de risco de abuso. As tentativas de inscrição com uma pontuação baixa de risco de abuso podem ser registradas imediatamente, enquanto as tentativas com uma pontuação alta de risco de abuso são impedidas de criar uma conta. Tentativas com pontuações de risco médio são questionadas por nossas medidas de segurança para verificar se são pessoas reais. Esse modelo de registro é bastante eficaz na prevenção da criação de contas falsas em massa. A figura abaixo mostra um ataque em que o modelo bloqueou a criação de cinco milhões de contas falsas em menos de um dia.

 

fake accounts stopped at registration

Embora evitemos que uma grande maioria das contas falsas em massa sejam criadas no registro, às vezes não temos informações suficientes nesse ponto para determinar se as contas são falsas. Por esse motivo, temos outros modelos para capturar lotes menores de falsificações. Primeiro, criamos clusters (grupos) de contas agrupando-os com base em atributos compartilhados. Em seguida, encontramos clusters de contas que mostram uma distribuição estatisticamente anormal de dados, o que é indicativo de terem sido criadas ou serem controladas por um único malfeitor. Esses são modelos de aprendizado de máquina supervisionados que usam recursos por grupo em vez de por usuário(a). Os modelos classificam os clusters e, em seguida, propagam a identificação do grupo para contas individuais. Essa abordagem por cluster nos permite capturar mais contas falsas de forma ágil, mais rápido do que poderíamos se esperássemos que elas começassem a realizar ações abusivas na rede. 

Contas falsas que não são criadas em massa por um(a) único(a) malfeitor(a) geralmente são detectadas por nossos modelos baseados em atividade, que exigem mais informações sobre o comportamento dessas contas para decidir se são realmente falsas. Temos muitos modelos que procuram tipos específicos de mau comportamento típicos de contas abusivas ou comportamentos que são anômalos. Além disso, nossos sistemas possuem redundância, o que garante que contas falsas não detectadas pelos estágios iniciais de nossas defesas (topo do funil) sejam eventualmente capturadas pelos últimos estágios (base do funil).

Sempre será necessário ter um elemento humano para capturar contas falsas que burlam nossos modelos. Embora nos esforcemos para eliminar contas falsas antes que elas interajam com nossa comunidade, também recebemos avisos de usuários que relatam atividades suspeitas na plataforma. Os usuários nos fornecem informações valiosas denunciando contas que não foram detectadas por nossos modelos, para que possam passar por avaliações e análises adicionais. Por fim, temos uma equipe de investigadores que procura contas que escaparam de todos os níveis de defesas automatizadas. Essas investigações também fornecem sinais valiosos que podem ser posteriormente incorporados aos nossos modelos.

Estamos constantemente aprimorando nossos modelos de contas falsas devido à natureza antagônica do abuso. Quanto mais rápido detectarmos contas falsas, mais evitaremos danos aos nossos usuários e usuárias, o que ajuda a manter o LinkedIn uma comunidade segura, confiável e profissional.

 


Related articles