IA monitora alunos em SP: polêmica e questionamentos éticos

IA em sala de aula: o caso do SADI em São Paulo
O governo paulista, sob a gestão de Tarcísio de Freitas, recentemente testou um sistema de inteligência artificial (IA) para monitorar alunos em escolas estaduais. Denominado Sistema de Avaliação de Desempenho Inteligente (SADI), o programa, desenvolvido pelo Instituto de Tecnologia Anexo Brasil, gerou significativa polêmica e levanta importantes questões éticas e legais.

Como funcionava o SADI?
O SADI utilizava câmeras instaladas em 11 escolas estaduais para analisar o comportamento dos alunos. Segundo informações divulgadas pelo Instituto de Tecnologia Anexo Brasil, a IA identificava sinais de ansiedade e perfis comportamentais considerados 'fortes' para o mercado de trabalho.
A empresa afirmava que o objetivo era preparar os alunos para o mercado de trabalho, focando em seus pontos fortes. Entretanto, detalhes cruciais sobre a metodologia de análise, a definição de 'perfil forte' e a efetiva aplicação desses dados na preparação profissional dos alunos não foram tornados públicos.
Falta de transparência e questionamentos legais
A ausência de informações claras sobre o projeto, aliada à falta de transparência da Secretaria Estadual da Educação e do Instituto de Tecnologia Anexo Brasil, gerou fortes críticas. A iniciativa foi questionada por diversos setores da sociedade, principalmente devido à possível violação de leis de proteção de dados e direitos da criança e do adolescente.
Parlamentares do PT e PSOL ingressaram com representação no Ministério Público contra o projeto, alegando violação da Lei Geral de Proteção de Dados (LGPD) e do Estatuto da Criança e do Adolescente (ECA). A principal preocupação reside na coleta de dados biométricos de menores de idade sem o devido consentimento e respaldo legal.
Implicações éticas e legais
O caso do SADI expõe a complexidade do uso de IA em ambientes educacionais, especialmente quando envolve dados sensíveis de crianças e adolescentes. A falta de regulamentação específica e a ausência de debates amplos sobre as implicações éticas e legais do uso dessas tecnologias acentuam a necessidade de cautela e transparência.
A utilização de IA para monitoramento em escolas levanta preocupações sobre privacidade, vigilância e o potencial de discriminação. É fundamental garantir que o uso dessas tecnologias respeite os direitos fundamentais dos alunos e esteja em conformidade com as leis em vigor.
A urgência de regulamentação e debate
O episódio demonstra a urgência de se estabelecerem regulamentações mais robustas para o uso de IA em escolas. É necessário um diálogo aberto e transparente entre governos, especialistas em tecnologia, educadores, pais e alunos para definir os limites éticos e legais do uso dessas ferramentas.
A proteção dos dados e direitos das crianças e adolescentes deve ser prioridade. A sociedade precisa discutir e definir os parâmetros para a utilização responsável e ética da inteligência artificial na educação, garantindo que a tecnologia seja usada para promover o aprendizado e o desenvolvimento integral dos alunos, sem comprometer seus direitos e sua privacidade.
Leia também:


