Timestamp,1.1 Qual o tipo de órgão ou entidade onde você atua?,1.2 Qual é sua área de atuação dentro da órgão ou entidade atualmente?,1.3 Existe um código de ética e termo de conduta no seu orgão ou entidade?,2.1 Quão familiarizado(a) você está com o conceito de ética relacionado ao desenvolvimento de IA?,"2.2 O que fez você se tornar ciente da “ética em IA”? Selecione todas as que se aplicam: ","2.3 Quais dos seguintes princípios éticos em IA você conhece? Selecione todos os que se aplicam. Princípios de ética em IA da Austrália: https://www.industry.gov.au/publications/australias-artificial-intelligence-ethics-principles/australias-ai-ethics-principles ) ","2.4 Em qual contexto você obteve formação ou treinamento relacionado à ética em IA? Selecione todas as opções que se aplicam. ",2.5 Quão bem você acha que sua formação educacional/treinamento formal lhe preparou para aplicar ética em IA?,3.1 Qual o tempo de atuação ou experência na área relacionada à IA?,"3.2 Caso você teve experiência na área de IA, qual foi/é o seu cargo/função:","3.3 Caso você teve/tem experiência na área de IA, quantos anos de experiência você tem no desenvolvimento de software baseado em IA?",3.4 Em quais atividades você está envolvido(a) no desenvolvimento de software no contexto de IA?,4.1 Existe um responsável ou comissão designado(a) em seu orgão ou entidade para tratar sobre questões de Ética em IA,4.2 A instituição onde você atua possui portaria ou normativo sobre ética em IA?,"4.3 Existem comitês ou grupos de trabalho internos voltados sobre ética em IA? ",4.4 Com que frequência são realizados treinamentos internos sobre ética em IA? ,5.1 O orgão ou entidade já registrou incidentes relacionados à privacidade se trantando do uso de IA nos últimos 5 anos? ,5.2 O orgão ou entidade já acionou autoridade competente sobre os incidentes relacionados à privacidade em se trantando do uso de IA últimos 5 anos? ,5.3 O orgão ou entidade já registrou incidentes relacionados à proteção de dados pessoais em se trantando do uso de IA nos últimos 5 anos? ,5.4 O orgão ou entidade já acionou ANPD sobre os incidentes relacionados à proteção de dados pessoais em se trantando do uso de IA nos últimos 5 anos? ,"5.5 O orgão ou entidade já registrou incidentes relacionados aos outros príncipios (Responsabilidade; Contestabilidade; Justiça; Valores Centrados no ser humano; Bem-estar social, ambiental; Confiabilidade e Segurança;Transparência e explicabilidade) de ética de IA (Desconsiderado a Privacidade e Proteção de Dados Pessoais) em se trantando do uso de IA nos últimos 5 anos? ","5.6 O orgão ou entidade já acionou autoridade competente sobre os incidentes relacionados à aos outros príncipios (Responsabilidade; Contestabilidade; Justiça; Valores Centrados no ser humano; Bem-estar social, ambiental; Confiabilidade e Segurança;Transparência e explicabilidade) de ética de IA (Desconsiderado a Privacidade e Proteção de Dados Pessoais) em se trantando do uso de IA nos últimos 5 anos? ",6.1 Qual nivel de de severidade você avalia a falta de controle nos aspectos de ética nos modelos de IA Generativos na vida pessoa e no trabalho?,6.2 Qual nivel de de severidade voce avalia a falta de controle nos aspectos de privacidade modelos de IA Generativos na vida pessoa e no trabalho?,6.3 Qual nivel de de severidade você avalia a falta de controle nos aspectos de proteção de dados pessoais no modelos de IA Generativos na vida pessoa e no trabalho?,"7.1 Na sua experiência, quais são os principais desafios ou barreiras para incorporar a ética na IA? ","7.2 Na sua experiência, quais são os principais desafios ou barreiras para incorporar a privacidade na IA?","7.3 Na sua experiência, quais são os principais desafios ou barreiras para incorporar a proteção de dados pessoais na IA?"," 8.1 Com base na sua experiência, há algo mais sobre ética em IA que você gostaria de compartilhar?","8.2 Com base na sua experiência, há algo mais sobre privacidade relacionado à Inteligência Artificial que você gostaria de compartilhar?","8.3 Com base na sua experiência, há algo mais sobre proteção de dados pessoais relacionados à Inteligência Artificial que você gostaria de compartilhar?" 6/20/2025 20:15:40,Autarquia Federal,Segurança da Informação,Sim,Razoavelmente familiarizado(a),"Regras e políticas do local de trabalho, Experiência pessoal direta (por exemplo, como usuário de software), Por meio de notícias e mídia, Tenho interesse pessoal nesse tema",Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA,"Durante a pós-graduação (mestrado, doutorado, especialização), Em cursos livres ou profissionalizantes",Moderadamente,Nenhuma,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Sim,Em elaboração,Sim,Eventualmente (uma vez ao ano ou menos),Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Muito Alto,Muito Alto,Muito Alto,"Falta de Conhecimento / Entedimento de IA, Dificuldade em Predizer as Consequências de IA","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Custos e recursos adicionais para implementar práticas de privacidade desde a concepção (Privacy by Design), Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA, Altos custos ou falta de recursos para implementar medidas de proteção de dados",Não,Não,Não 6/20/2025 23:20:06,Administração Pública Federal,Proteção de Dados Pessoais,Sim,Um pouco familiarizado(a),"Regras e políticas do local de trabalho, Por meio de notícias e mídia",Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido,Não obtive nenhuma formação ou treinamento relacionado à ética em IA,Pouco,Nenhuma,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Não,Não,Não,Nunca houve,Não,Não,Não,Não,Não,Não,Muito Alto,Muito Alto,Muito Alto,"Falta de Conhecimento / Entedimento de IA, Dificuldade em Predizer as Consequências de IA, Complexidade de IA","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Falta de ferramentas ou tecnologias maduras para garantir a privacidade de dados nos processos de IA","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA",,, 6/25/2025 9:49:39,Administração Pública Federal,Governança e Compliance,Sim,Um pouco familiarizado(a),"Regras e políticas do local de trabalho, Por meio de notícias e mídia",Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados,Não obtive nenhuma formação ou treinamento relacionado à ética em IA,Nada,Nenhuma,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Em elaboração,Em elaboração,Não sei informar,Nunca houve,Sim,Sim,Sim,Sim,Não sei informar,Não sei informar,Alto,Alto,Alto,"Falta de Conhecimento / Entedimento de IA, Falta de Conhecimento de Trabalho dos outros, Falta de Dados de Treinamento","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Custos e recursos adicionais para implementar práticas de privacidade desde a concepção (Privacy by Design), Dificuldade em conciliar performance dos modelos com proteção à privacidade dos dados","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA",,, 6/25/2025 9:59:26,Administração Pública Federal,Administrativa,Não sei informar,Razoavelmente familiarizado(a),"Experiência pessoal direta (por exemplo, como usuário de software), Experiência profissional direta (por exemplo, como profissional de IA), Por meio de notícias e mídia",Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados,Não obtive nenhuma formação ou treinamento relacionado à ética em IA,Moderadamente,Entre 1 e 2 anos,Outro:,Nenhuma experiência,Nenhuma das atividades mencionadas,Não sei informar,Não sei informar,Não sei informar,Nunca houve,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Moderado,Muito Alto,Muito Alto,"Falta de Conhecimento / Entedimento de IA, Falta de Conhecimento de Trabalho dos outros","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA",Não,Não,Não 6/25/2025 10:05:51,Administração Pública Federal,Tecnologia da Informação,Sim,Razoavelmente familiarizado(a),Regras e políticas do local de trabalho,Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados,Em treinamentos oferecidos pela empresa onde trabalha ou trabalhou,Extremamente bem,Menos de 1 ano,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Não,Não,Sim,Nunca houve,Não,Não,Não,Não,Não,Não,Muito Alto,Muito Alto,Muito Alto,"Falta de Conhecimento / Entedimento de IA, Dificuldade em Predizer as Saídas de IA, Complexidade de IA, Falta de Qualidade de Dados, Falta de Dados de Treinamento","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Custos e recursos adicionais para implementar práticas de privacidade desde a concepção (Privacy by Design), Dificuldade em conciliar performance dos modelos com proteção à privacidade dos dados, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA, Falta de ferramentas ou tecnologias maduras para garantir a privacidade de dados nos processos de IA","Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA",,, 6/25/2025 10:14:41,Exército Brasileiro ,Comunicação social ,Sim,Um pouco familiarizado(a),Por meio de notícias e mídia,Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA,Não obtive nenhuma formação ou treinamento relacionado à ética em IA,Nada,Nenhuma,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Não,Em elaboração,Não sei informar,Nunca houve,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Alto,Alto,Muito Alto,Falta de Conhecimento / Entedimento de IA,Falta de ferramentas ou tecnologias maduras para garantir a privacidade de dados nos processos de IA,Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA,,, 6/25/2025 10:48:14,Universidade Federal de Ensino,Segurança da Informação,Não sei informar,Pouco familiarizado(a),Tenho interesse pessoal nesse tema,Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem,Em cursos livres ou profissionalizantes,Pouco,Entre 1 e 2 anos,Cientista de Dados / IA,Menos de 1 ano,Rotulagem de Dados,Não sei informar,Não sei informar,Sim,Nunca houve,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Alto,Alto,Muito Alto,"Falta de Conhecimento / Entedimento de IA, Complexidade de IA","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA, Falta de ferramentas ou tecnologias maduras para garantir a privacidade de dados nos processos de IA","Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Altos custos ou falta de recursos para implementar medidas de proteção de dados, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA",,, 6/25/2025 10:52:35,Administração Pública Federal,Segurança da Informação,Sim,Pouco familiarizado(a),"Regras e políticas do local de trabalho, Por meio de notícias e mídia",Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados,Nenhuma das respostas anterories,Nada,Nenhuma,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Não,Não,Não,Nunca houve,Não,Não,Não,Não,Não,Não,Muito Alto,Muito Alto,Muito Alto,"Falta de Conhecimento / Entedimento de IA, Falta de Conhecimento de Trabalho dos outros, Escopo de IA","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA",,, 6/25/2025 10:57:28,Administração Pública Federal,Segurança da Informação,Sim,Um pouco familiarizado(a),"Experiência profissional direta (por exemplo, como profissional de IA), Por meio de notícias e mídia",Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados,Em cursos livres ou profissionalizantes,Pouco,Menos de 1 ano,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Não,Não,Não,Nunca houve,Não,Não,Não,Não,Não,Não,Moderado,Moderado,Alto,"Falta de Conhecimento de Trabalho dos outros, Dificuldade em Predizer as Saídas de IA, Dificuldade em Predizer as Consequências de IA, Complexidade de IA","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA",,, 6/25/2025 11:19:53,Autarquia Federal,Governança e Compliance,Sim,Pouco familiarizado(a),Por meio de notícias e mídia,Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido,Não obtive nenhuma formação ou treinamento relacionado à ética em IA,Nada,Nenhuma,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Não sei informar,Não,Não sei informar,Nunca houve,Não,Não,Não,Não,Não sei informar,Não sei informar,Moderado,Moderado,Alto,Falta de Conhecimento / Entedimento de IA,Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados,Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais,,, 6/26/2025 16:49:42,Administração Pública Federal,Tecnologia da Informação,Sim,Razoavelmente familiarizado(a),"Experiência pessoal direta (por exemplo, como usuário de software)","Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Contestabilidade / Contestability: Processo rápido e acessível que permita às pessoas contestarem o uso/resultados do sistema de IA, Justiça / Fairness: Sistema inclusivo e acessível, Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Bem-estar humano, social e ambiental / Human, societal, and environmental well-being: Beneficiar indivíduos, sociedade e meio ambiente, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem",Em cursos livres ou profissionalizantes,Moderadamente,Entre 1 e 2 anos,Profissional de IA / ML (Machine Learning),De 1 a 2 anos,"Especificação de Requisitos de Software, Documentação de Requisitos de Software, Verificação e Validação de Requisitos de Software, Gerenciamento de Requisitos de Software, Coleta de Dados, Limpeza de Dados",Não,Não,Não,Nunca houve,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Muito Alto,Muito Alto,Muito Alto,"Falta de Conhecimento / Entedimento de IA, Dificuldade em Predizer as Consequências de IA, Complexidade de IA","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA, Dificuldade em equilibrar desempenho dos modelos de IA com a proteção dos dados pessoais, Altos custos ou falta de recursos para implementar medidas de proteção de dados, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA",,, 6/29/2025 18:35:01,Instituto Federal de Ensino,Segurança da Informação,Sim,Pouco familiarizado(a),"Experiência pessoal direta (por exemplo, como usuário de software), Por meio de notícias e mídia","Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido","Durante a pós-graduação (mestrado, doutorado, especialização)",Pouco,Nenhuma,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Não,Não,Não,Nunca houve,Não,Não,Não,Não,Não,Não,Muito Alto,Muito Alto,Muito Alto,"Falta de Conhecimento / Entedimento de IA, Dificuldade em Predizer as Saídas de IA, Dificuldade em Predizer as Consequências de IA, Complexidade de IA","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Custos e recursos adicionais para implementar práticas de privacidade desde a concepção (Privacy by Design), Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA, Falta de ferramentas ou tecnologias maduras para garantir a privacidade de dados nos processos de IA","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA",Não,Não,Não 7/1/2025 19:21:41,Administração Pública Federal,Segurança da Informação,Sim,Razoavelmente familiarizado(a),"Regras e políticas do local de trabalho, Experiência pessoal direta (por exemplo, como usuário de software)","Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido",Não obtive nenhuma formação ou treinamento relacionado à ética em IA,Moderadamente,Menos de 1 ano,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Não,Em elaboração,Em elaboração,Nunca houve,Não sei informar,Não sei informar,Sim,Não sei informar,Não sei informar,Não sei informar,Alto,Alto,Muito Alto,Falta de Conhecimento / Entedimento de IA,"Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA","Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA",,, 7/1/2025 19:46:31,Administração Pública Federal,Governança e Compliance,Sim,Razoavelmente familiarizado(a),Reclamações de clientes,"Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos",Em treinamentos oferecidos pela empresa onde trabalha ou trabalhou,Moderadamente,Entre 1 e 2 anos,Nenhuma Experiência na área de IA,Menos de 1 ano,Coleta de Dados,Sim,Sim,Sim,Eventualmente (uma vez ao ano ou menos),Não,Não sei informar,Não sei informar,Não sei informar,Sim,Não sei informar,Moderado,Moderado,Moderado,Complexidade de IA,Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados,Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA,,, 7/1/2025 20:30:57,Administração Pública Federal,Fiscalização ,Sim,Um pouco familiarizado(a),"Regras e políticas do local de trabalho, Experiência pessoal direta (por exemplo, como usuário de software), Tenho interesse pessoal nesse tema","Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Bem-estar humano, social e ambiental / Human, societal, and environmental well-being: Beneficiar indivíduos, sociedade e meio ambiente, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem",Em cursos livres ou profissionalizantes,Pouco,Entre 3 e 5 anos,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Em elaboração,Em elaboração,Em elaboração,Nunca houve,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Muito Baixo,Alto,Alto,"Falta de Conhecimento / Entedimento de IA, Dificuldade em Predizer as Saídas de IA","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Custos e recursos adicionais para implementar práticas de privacidade desde a concepção (Privacy by Design)","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Dificuldade em equilibrar desempenho dos modelos de IA com a proteção dos dados pessoais",,, 7/23/2025 15:13:45,Administração Pública Estadual,Tecnologia da Informação,Sim,Muito familiarizado(a),"Experiência profissional direta (por exemplo, como profissional de IA), Tenho interesse pessoal nesse tema","Justiça / Fairness: Sistema inclusivo e acessível, Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Bem-estar humano, social e ambiental / Human, societal, and environmental well-being: Beneficiar indivíduos, sociedade e meio ambiente, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem","Durante a pós-graduação (mestrado, doutorado, especialização)",Pouco,Entre 6 e 10 anos,Especialista em IA / ML (Machine Learning),De 1 a 2 anos,"Especificação de Requisitos de Software, Documentação de Requisitos de Software, Verificação e Validação de Requisitos de Software, Gerenciamento de Requisitos de Software, Coleta de Dados, Limpeza de Dados, Rotulagem de Dados, Engenharia de Características (Feature Engineering), Treinamento do Modelo, Avaliação do Modelo, Implantação do Modelo, Monitoramento do Modelo",Não,Não,Não,Nunca houve,Não,Não,Não,Não,Não sei informar,Não sei informar,Muito Alto,Muito Alto,Muito Alto,"Falta de Conhecimento / Entedimento de IA, Dificuldade em Predizer as Consequências de IA, Complexidade de IA","Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Dificuldade em conciliar performance dos modelos com proteção à privacidade dos dados, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA, Falta de ferramentas ou tecnologias maduras para garantir a privacidade de dados nos processos de IA","Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA, Dificuldade em equilibrar desempenho dos modelos de IA com a proteção dos dados pessoais, Altos custos ou falta de recursos para implementar medidas de proteção de dados, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA","Ethics by design é o caminho, pois tudo de ética precisa ser considerado desde o planejamento de uma solução.",Muitos conceitos clássicos e muitos novos sobre privacidade precisam ser considerados quando se fala de machine learning e AI.,Os riscos de reidentificação e os conceitos relativos à privacidade diferencial devem ser considerados sempre. 9/5/2025 7:39:18,Instituto Federal de Ensino,Tecnologia da Informação,Não,Um pouco familiarizado(a),Por meio de notícias e mídia,Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados,"Durante a pós-graduação (mestrado, doutorado, especialização)",Muito bem,Entre 3 e 5 anos,Especialista em IA / ML (Machine Learning),De 3 a 5 anos,"Coleta de Dados, Implantação do Modelo, Monitoramento do Modelo",Não,Não,Não,Nunca houve,Não sei informar,Não sei informar,Não sei informar,Não,Não,Não sei informar,Baixo,Baixo,Moderado,Complexidade de IA,Dificuldade em conciliar performance dos modelos com proteção à privacidade dos dados,"Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA",não,não,não 9/5/2025 8:13:13,Administração Pública Federal,Proteção de Dados Pessoais,Sim,Pouco familiarizado(a),"Experiência profissional direta (por exemplo, como profissional de IA)","Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido",Não obtive nenhuma formação ou treinamento relacionado à ética em IA,Nada,Nenhuma,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Sim,Não,Não sei informar,Nunca houve,Não,Não,Não,Não,Não sei informar,Não sei informar,Alto,Alto,Alto,"Falta de Conhecimento / Entedimento de IA, Complexidade de IA, Falta de Dados de Treinamento","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Custos e recursos adicionais para implementar práticas de privacidade desde a concepção (Privacy by Design), Falta de ferramentas ou tecnologias maduras para garantir a privacidade de dados nos processos de IA","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA",,, 9/5/2025 9:13:14,Poder Judiciário TRE-SP,Gestão documental,Sim,Razoavelmente familiarizado(a),"Regras e políticas do local de trabalho, Experiência pessoal direta (por exemplo, como usuário de software), Experiência profissional direta (por exemplo, como profissional de IA), Tenho interesse pessoal nesse tema","Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Justiça / Fairness: Sistema inclusivo e acessível, Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Bem-estar humano, social e ambiental / Human, societal, and environmental well-being: Beneficiar indivíduos, sociedade e meio ambiente, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem","Em cursos livres ou profissionalizantes, Em treinamentos oferecidos pela empresa onde trabalha ou trabalhou",Moderadamente,Entre 11 e 15 anos,Outro:,De 3 a 5 anos,"Especificação de Requisitos de Software, Documentação de Requisitos de Software, Gerenciamento de Requisitos de Software, Coleta de Dados, Rotulagem de Dados, Avaliação do Modelo, Implantação do Modelo",Sim,Sim,Sim,Eventualmente (uma vez ao ano ou menos),Não,Não,Sim,Não,Não,Não,Muito Alto,Muito Alto,Muito Alto,"Falta de Conhecimento / Entedimento de IA, Falta de Conhecimento de Trabalho dos outros, Escopo de IA, Falta de Dados de Treinamento","Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados","Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA","Em geral há falta de clareza sobre as implicações éticas do uso de IAs, inclusive do processamento em nuvem e modelos de serviço de bigtechs como google, microsoft etc","Em geral há falta de clareza sobre privacidade no uso de IAs, inclusive do processamento em nuvem e modelos de serviço de bigtechs como google, microsoft etc","Em geral há falta de clareza sobre privacidade no uso de IAs, inclusive do processamento em nuvem e modelos de serviço de bigtechs como google, microsoft etc. Instituições públicas em especial devem estimular, normatizar e orientar quanto ao alcance da LGPD e LAI." 9/5/2025 9:23:44,Administração Pública Federal,Segurança da Informação,Não,Um pouco familiarizado(a),"Regras e políticas do local de trabalho, Experiência pessoal direta (por exemplo, como usuário de software), Por meio de notícias e mídia, Tenho interesse pessoal nesse tema","Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem",Não obtive nenhuma formação ou treinamento relacionado à ética em IA,Pouco,Menos de 1 ano,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Não,Não,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Alto,Alto,Moderado,"Falta de Conhecimento / Entedimento de IA, Complexidade de IA","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Custos e recursos adicionais para implementar práticas de privacidade desde a concepção (Privacy by Design), Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA, Falta de ferramentas ou tecnologias maduras para garantir a privacidade de dados nos processos de IA","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA, Altos custos ou falta de recursos para implementar medidas de proteção de dados, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA",,, 9/5/2025 9:41:21,Administração Pública Federal,Segurança da Informação,Sim,Um pouco familiarizado(a),"Experiência pessoal direta (por exemplo, como usuário de software), Experiência profissional direta (por exemplo, como profissional de IA)","Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido",Não obtive nenhuma formação ou treinamento relacionado à ética em IA,Pouco,Menos de 1 ano,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Não,Não,Não,Eventualmente (uma vez ao ano ou menos),Não,Não,Não,Não,Não,Não,Baixo,Baixo,Baixo,Falta de Qualidade de Dados,Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA,Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA,não,não,não 9/5/2025 10:02:36,Autarquia Federal,Segurança da Informação,Sim,Muito familiarizado(a),"Regras e políticas do local de trabalho, Tenho interesse pessoal nesse tema","Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Contestabilidade / Contestability: Processo rápido e acessível que permita às pessoas contestarem o uso/resultados do sistema de IA, Justiça / Fairness: Sistema inclusivo e acessível, Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Bem-estar humano, social e ambiental / Human, societal, and environmental well-being: Beneficiar indivíduos, sociedade e meio ambiente, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem","Durante a pós-graduação (mestrado, doutorado, especialização), Em cursos livres ou profissionalizantes",Moderadamente,Entre 3 e 5 anos,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Sim,Em elaboração,Sim,Eventualmente (uma vez ao ano ou menos),Não,Não,Não,Não,Não,Não,Alto,Muito Baixo,Muito Baixo,"Falta de Conhecimento / Entedimento de IA, Falta de Conhecimento de Trabalho dos outros, Dificuldade em Predizer as Consequências de IA","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Custos e recursos adicionais para implementar práticas de privacidade desde a concepção (Privacy by Design)","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Dificuldade em equilibrar desempenho dos modelos de IA com a proteção dos dados pessoais",Não,Não,Não 9/5/2025 10:10:05,Administração Pública Federal,Inteligência Artificial,Sim,Muito familiarizado(a),"Experiência profissional direta (por exemplo, como profissional de IA), Tenho interesse pessoal nesse tema","Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Contestabilidade / Contestability: Processo rápido e acessível que permita às pessoas contestarem o uso/resultados do sistema de IA, Justiça / Fairness: Sistema inclusivo e acessível, Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Bem-estar humano, social e ambiental / Human, societal, and environmental well-being: Beneficiar indivíduos, sociedade e meio ambiente, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem","Durante a pós-graduação (mestrado, doutorado, especialização), Em cursos livres ou profissionalizantes, Em treinamentos oferecidos pela empresa onde trabalha ou trabalhou",Moderadamente,Menos de 1 ano,Outro:,Nenhuma experiência,Nenhuma das atividades mencionadas,Em elaboração,Em elaboração,Sim,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Baixo,Moderado,Moderado,Dificuldade em Predizer as Consequências de IA,Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA,"Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA",,, 9/5/2025 10:41:56,Instituto Federal de Ensino,Tecnologia da Informação,Não sei informar,Muito familiarizado(a),Por meio de notícias e mídia,"Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Justiça / Fairness: Sistema inclusivo e acessível, Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Bem-estar humano, social e ambiental / Human, societal, and environmental well-being: Beneficiar indivíduos, sociedade e meio ambiente, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem",Em cursos livres ou profissionalizantes,Muito bem,Menos de 1 ano,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Não sei informar,Não sei informar,Não sei informar,Nunca houve,Não,Não,Não,Não,Não,Não,Muito Alto,Muito Alto,Muito Alto,"Falta de Conhecimento / Entedimento de IA, Falta de Conhecimento de Trabalho dos outros","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA",,, 9/5/2025 11:24:28,Autarquia Federal,Tecnologia da Informação,Não,Nada familiarizado(a),"Por meio de notícias e mídia, Tenho interesse pessoal nesse tema",Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido,"Durante a pós-graduação (mestrado, doutorado, especialização)",Pouco,Nenhuma,Engenheiro(a) de IA,De 6 a 10 anos,"Treinamento do Modelo, Avaliação do Modelo",Não,Não,Não,Nunca houve,Não,Não,Não,Não,Não,Não,Muito Alto,Muito Alto,Alto,Falta de Conhecimento / Entedimento de IA,Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA,Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA,Não,Não ,Não 9/5/2025 13:05:30,Autarquia Federal,Proteção de Dados Pessoais,Sim,Um pouco familiarizado(a),"Regras e políticas do local de trabalho, Por meio de notícias e mídia, Tenho interesse pessoal nesse tema","Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem",Em treinamentos oferecidos pela empresa onde trabalha ou trabalhou,Moderadamente,Nenhuma,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Sim,Sim,Sim,Eventualmente (uma vez ao ano ou menos),Não,Não,Não,Não,Não,Não,Alto,Alto,Alto,"Falta de Conhecimento / Entedimento de IA, Dificuldade em Predizer as Consequências de IA, Complexidade de IA","Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Custos e recursos adicionais para implementar práticas de privacidade desde a concepção (Privacy by Design), Dificuldade em conciliar performance dos modelos com proteção à privacidade dos dados, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA, Dificuldade em equilibrar desempenho dos modelos de IA com a proteção dos dados pessoais, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA",,, 9/5/2025 16:28:54,empresa pública BB,Segurança da Informação,Sim,Pouco familiarizado(a),"Experiência profissional direta (por exemplo, como profissional de IA), Por meio de notícias e mídia","Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido",Em cursos livres ou profissionalizantes,Moderadamente,Entre 1 e 2 anos,Outro:,Nenhuma experiência,Avaliação do Modelo,Sim,Sim,Sim,Regularmente (mais de uma vez ao ano),Não,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Moderado,Moderado,Moderado,"Falta de Conhecimento / Entedimento de IA, Complexidade de IA, Falta de Qualidade de Dados","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Dificuldade em conciliar performance dos modelos com proteção à privacidade dos dados","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA",,, 9/5/2025 16:32:48,Administração Pública Federal,Proteção de Dados Pessoais,Sim,Razoavelmente familiarizado(a),"Regras e políticas do local de trabalho, Experiência pessoal direta (por exemplo, como usuário de software)","Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados",Não obtive nenhuma formação ou treinamento relacionado à ética em IA,Moderadamente,Nenhuma,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Não,Não,Não,Nunca houve,Não,Não,Não,Não,Não,Não,Baixo,Baixo,Baixo,"Falta de Conhecimento / Entedimento de IA, Dificuldade em Predizer as Consequências de IA, Falta de Qualidade de Dados","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados","Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA",,, 9/5/2025 16:47:09,Fundação Pública Federal,Tecnologia da Informação,Não,Pouco familiarizado(a),"Regras e políticas do local de trabalho, Por meio de notícias e mídia, Tenho interesse pessoal nesse tema","Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem","Durante a pós-graduação (mestrado, doutorado, especialização)",Pouco,Menos de 1 ano,Outro:,Menos de 1 ano,"Especificação de Requisitos de Software, Documentação de Requisitos de Software, Gestão do Projeto e Governança Estratégica",Em elaboração,Não,Não,Nunca houve,Não sei informar,Não,Não,Não,Sim,Não sei informar,Muito Alto,Muito Alto,Muito Alto,"Falta de Conhecimento / Entedimento de IA, Iniciativas sem força de Lei vinculativa; falta de clareza e consenso na arena de debate sobre os padrões éticos; Integração com arcabouço legal existente; Tomadores de decisão Políticos","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Custos e recursos adicionais para implementar práticas de privacidade desde a concepção (Privacy by Design)","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Altos custos ou falta de recursos para implementar medidas de proteção de dados, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA, Clareza sobre custos indiretos (energia, água, uso de componentes provenientes deterras raras, etc)",Estou elaborando meu pré-projeto de doutorado sobre modelos de governança e ética em IA,N,n 9/5/2025 17:16:48,Administração Pública Municipal,Governança e Compliance,Sim,Muito familiarizado(a),Tenho interesse pessoal nesse tema,"Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Justiça / Fairness: Sistema inclusivo e acessível, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido",Em cursos livres ou profissionalizantes,Moderadamente,Entre 1 e 2 anos,Profissional de IA / ML (Machine Learning),Nenhuma experiência,"Coleta de Dados, Limpeza de Dados, Treinamento do Modelo",Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Muito Alto,Muito Alto,Muito Alto,"Falta de Conhecimento de Trabalho dos outros, Complexidade de IA, Falta de Qualidade de Dados","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Custos e recursos adicionais para implementar práticas de privacidade desde a concepção (Privacy by Design), Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Dificuldade em equilibrar desempenho dos modelos de IA com a proteção dos dados pessoais",,, 9/5/2025 19:42:49,Administração Pública Federal,Governança e Compliance,Sim,Pouco familiarizado(a),"Regras e políticas do local de trabalho, Experiência pessoal direta (por exemplo, como usuário de software), Por meio de notícias e mídia","Contestabilidade / Contestability: Processo rápido e acessível que permita às pessoas contestarem o uso/resultados do sistema de IA, Justiça / Fairness: Sistema inclusivo e acessível",Não obtive nenhuma formação ou treinamento relacionado à ética em IA,Pouco,Entre 1 e 2 anos,Cientista de Dados / IA,Menos de 1 ano,"Treinamento do Modelo, Avaliação do Modelo",Sim,Sim,Não,Nunca houve,Não,Não,Não,Não,Não,Não,Alto,Alto,Alto,"Falta de Conhecimento de Trabalho dos outros, Complexidade de IA, Falta de Qualidade de Dados","Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Falta de ferramentas ou tecnologias maduras para garantir a privacidade de dados nos processos de IA","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA",,, 9/7/2025 10:11:50,Universidade Federal de Ensino,Tecnologia da Informação,Não,Um pouco familiarizado(a),"Experiência profissional direta (por exemplo, como profissional de IA), Tenho interesse pessoal nesse tema","Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Contestabilidade / Contestability: Processo rápido e acessível que permita às pessoas contestarem o uso/resultados do sistema de IA, Justiça / Fairness: Sistema inclusivo e acessível, Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Bem-estar humano, social e ambiental / Human, societal, and environmental well-being: Beneficiar indivíduos, sociedade e meio ambiente, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem","Durante a pós-graduação (mestrado, doutorado, especialização)",Extremamente bem,Nenhuma,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Não,Não,Não,Nunca houve,Não,Não,Não,Não,Não,Não,Muito Alto,Muito Alto,Muito Alto,"Falta de Conhecimento / Entedimento de IA, Escopo de IA, Falta de Qualidade de Dados, Falta de Dados de Treinamento","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA, Falta de ferramentas ou tecnologias maduras para garantir a privacidade de dados nos processos de IA","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA",,, 9/7/2025 11:11:33,Administração Pública Federal,Tecnologia da Informação,Sim,Razoavelmente familiarizado(a),"Experiência pessoal direta (por exemplo, como usuário de software), Por meio de notícias e mídia","Justiça / Fairness: Sistema inclusivo e acessível, Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem",Em cursos livres ou profissionalizantes,Moderadamente,Entre 1 e 2 anos,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Sim,Sim,Sim,Eventualmente (uma vez ao ano ou menos),Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Alto,Alto,Muito Alto,"Falta de Conhecimento / Entedimento de IA, Falta de Conhecimento de Trabalho dos outros, Falta de Qualidade de Dados","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA",,, 9/7/2025 11:12:33,Segurança Pública,Segurança da Informação,Sim,Um pouco familiarizado(a),"Regras e políticas do local de trabalho, Experiência pessoal direta (por exemplo, como usuário de software), Experiência profissional direta (por exemplo, como profissional de IA), Por meio de notícias e mídia","Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Contestabilidade / Contestability: Processo rápido e acessível que permita às pessoas contestarem o uso/resultados do sistema de IA, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem","Durante a pós-graduação (mestrado, doutorado, especialização)",Moderadamente,Entre 1 e 2 anos,Desenvolvedor(a) de IA,De 1 a 2 anos,"Avaliação do Modelo, Implantação do Modelo, Monitoramento do Modelo",Não,Não,Não,Nunca houve,Não,Não,Não,Não,Não,Não,Alto,Alto,Alto,"Dificuldade em Predizer as Saídas de IA, Dificuldade em Predizer as Consequências de IA, Complexidade de IA, A evolução rápida favorece a externalização de informações sem controles adequados","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Custos e recursos adicionais para implementar práticas de privacidade desde a concepção (Privacy by Design), Dificuldade em conciliar performance dos modelos com proteção à privacidade dos dados, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA, Falta de ferramentas ou tecnologias maduras para garantir a privacidade de dados nos processos de IA","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA, Dificuldade em equilibrar desempenho dos modelos de IA com a proteção dos dados pessoais, Altos custos ou falta de recursos para implementar medidas de proteção de dados, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA",,, 9/7/2025 13:50:30,Tribunal Superior (Poder Judiciário),Tecnologia da Informação,Sim,Pouco familiarizado(a),Regras e políticas do local de trabalho,"Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados",Não obtive nenhuma formação ou treinamento relacionado à ética em IA,Nada,Nenhuma,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Não sei informar,Em elaboração,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Alto,Alto,Alto,Falta de Conhecimento / Entedimento de IA,"Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA",,, 9/8/2025 8:27:21,Administração Pública Federal,Tecnologia da Informação,Sim,Pouco familiarizado(a),"Experiência profissional direta (por exemplo, como profissional de IA)","Contestabilidade / Contestability: Processo rápido e acessível que permita às pessoas contestarem o uso/resultados do sistema de IA, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem",Não obtive nenhuma formação ou treinamento relacionado à ética em IA,Pouco,Nenhuma,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Não,Não,Não,Nunca houve,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Alto,Muito Alto,Muito Alto,"Falta de Conhecimento / Entedimento de IA, Falta de Conhecimento de Trabalho dos outros","Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Custos e recursos adicionais para implementar práticas de privacidade desde a concepção (Privacy by Design), Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA","Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA",Falta de informações na instituição em relação ao tema.,Falta de informações na instituição em relação ao tema.,Falta de informações na instituição em relação ao tema. 9/8/2025 12:53:53,Administração Pública Federal,Tecnologia da Informação,Não sei informar,Um pouco familiarizado(a),Por meio de notícias e mídia,"Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Justiça / Fairness: Sistema inclusivo e acessível, Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem",Não obtive nenhuma formação ou treinamento relacionado à ética em IA,Moderadamente,Entre 1 e 2 anos,Cientista de Dados / IA,De 1 a 2 anos,"Coleta de Dados, Limpeza de Dados, Rotulagem de Dados, Avaliação do Modelo, Implantação do Modelo",Não sei informar,Não sei informar,Em elaboração,Eventualmente (uma vez ao ano ou menos),Não,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Alto,Muito Alto,Muito Alto,Dificuldade em Predizer as Saídas de IA,"Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA, Dificuldade em equilibrar desempenho dos modelos de IA com a proteção dos dados pessoais, Altos custos ou falta de recursos para implementar medidas de proteção de dados, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA",,, 9/8/2025 14:52:30,Administração Pública Federal,Tecnologia da Informação,Sim,Razoavelmente familiarizado(a),"Regras e políticas do local de trabalho, Experiência pessoal direta (por exemplo, como usuário de software), Por meio de notícias e mídia, Tenho interesse pessoal nesse tema","Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Contestabilidade / Contestability: Processo rápido e acessível que permita às pessoas contestarem o uso/resultados do sistema de IA, Justiça / Fairness: Sistema inclusivo e acessível, Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Bem-estar humano, social e ambiental / Human, societal, and environmental well-being: Beneficiar indivíduos, sociedade e meio ambiente, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem","Em cursos livres ou profissionalizantes, Em treinamentos oferecidos pela empresa onde trabalha ou trabalhou",Pouco,Entre 1 e 2 anos,Outro:,Nenhuma experiência,"Avaliação do Modelo, Implantação do Modelo, Monitoramento do Modelo",Em elaboração,Em elaboração,Não,Nunca houve,Não,Não,Não,Não,Sim,Não,Alto,Alto,Alto,"Falta de Conhecimento / Entedimento de IA, Dificuldade em Predizer as Consequências de IA","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA, Falta de ferramentas ou tecnologias maduras para garantir a privacidade de dados nos processos de IA","Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA",Aspectos éticos dependem de cultura. O desenvolvimento das redes sociais e políticas de rastreamento com fins comerciais gerou uma naturalização na disponibilidade das informações pessoais. Depende portanto de revisitar e conscientizar sobre direitos e prerrogativas.,Aspectos éticos dependem de cultura. O desenvolvimento das redes sociais e políticas de rastreamento com fins comerciais gerou uma naturalização na disponibilidade das informações pessoais. Depende portanto de revisitar e conscientizar sobre direitos e prerrogativas.,Aspectos éticos dependem de cultura. O desenvolvimento das redes sociais e políticas de rastreamento com fins comerciais gerou uma naturalização na disponibilidade das informações pessoais. Depende portanto de revisitar e conscientizar sobre direitos e prerrogativas. 9/9/2025 14:22:06,Administração Pública Federal,Governança e Compliance,Sim,Um pouco familiarizado(a),"Regras e políticas do local de trabalho, Experiência profissional direta (por exemplo, como profissional de IA)","Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Contestabilidade / Contestability: Processo rápido e acessível que permita às pessoas contestarem o uso/resultados do sistema de IA, Justiça / Fairness: Sistema inclusivo e acessível, Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Bem-estar humano, social e ambiental / Human, societal, and environmental well-being: Beneficiar indivíduos, sociedade e meio ambiente, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem",Em treinamentos oferecidos pela empresa onde trabalha ou trabalhou,Muito bem,Entre 3 e 5 anos,Outro:,Nenhuma experiência,Governança de dados,Em elaboração,Em elaboração,Em elaboração,Eventualmente (uma vez ao ano ou menos),Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Muito Alto,Muito Alto,Muito Alto,"Falta de Conhecimento / Entedimento de IA, Complexidade de IA, Falta de Qualidade de Dados","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Custos e recursos adicionais para implementar práticas de privacidade desde a concepção (Privacy by Design), Dificuldade em conciliar performance dos modelos com proteção à privacidade dos dados, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA, Falta de ferramentas ou tecnologias maduras para garantir a privacidade de dados nos processos de IA","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA, Dificuldade em equilibrar desempenho dos modelos de IA com a proteção dos dados pessoais, Altos custos ou falta de recursos para implementar medidas de proteção de dados, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA",,, 9/9/2025 19:46:49,Outro,Segurança da Informação,Em elaboração,Razoavelmente familiarizado(a),"Experiência profissional direta (por exemplo, como profissional de IA), Tenho interesse pessoal nesse tema","Contestabilidade / Contestability: Processo rápido e acessível que permita às pessoas contestarem o uso/resultados do sistema de IA, Justiça / Fairness: Sistema inclusivo e acessível, Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Bem-estar humano, social e ambiental / Human, societal, and environmental well-being: Beneficiar indivíduos, sociedade e meio ambiente, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem","Em cursos livres ou profissionalizantes, ",Muito bem,Entre 1 e 2 anos,Especialista em IA / ML (Machine Learning),De 1 a 2 anos,"Especificação de Requisitos de Software, Documentação de Requisitos de Software, Verificação e Validação de Requisitos de Software, Gerenciamento de Requisitos de Software, Coleta de Dados, Limpeza de Dados, Rotulagem de Dados, Treinamento do Modelo, Avaliação do Modelo, Implantação do Modelo",Em elaboração,Em elaboração,Em elaboração,Nunca houve,Não,Não,Não,Não,Não,Não,Alto,Muito Alto,Muito Alto,"Dificuldade em Predizer as Saídas de IA, Dificuldade em Predizer as Consequências de IA, Complexidade de IA, Falta de Qualidade de Dados","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Dificuldade em conciliar performance dos modelos com proteção à privacidade dos dados, Falta de ferramentas ou tecnologias maduras para garantir a privacidade de dados nos processos de IA","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA, Dificuldade em equilibrar desempenho dos modelos de IA com a proteção dos dados pessoais, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA","Na minha experiência, o maior desafio em relação à ética em IA está na necessidade de equilibrar inovação tecnológica com responsabilidade social. Muitas vezes, o foco está apenas na performance dos modelos, deixando de lado aspectos como transparência, explicabilidade e justiça. Acredito que é fundamental criar mecanismos claros de governança, auditoria e prestação de contas, para que a IA seja desenvolvida e utilizada de forma confiável, centrada no ser humano e alinhada ao bem-estar coletivo.","Com base na minha experiência, um dos maiores desafios para garantir a privacidade na Inteligência Artificial é a dificuldade de equilibrar a utilidade dos dados com a forte proteção da privacidade. Mesmo quando técnicas de anonimização são aplicadas, ainda existe o risco de reidentificação dos dados, especialmente em conjuntos de dados grandes e complexos. É importante adotar práticas como privacy by design e o monitoramento contínuo para garantir que informações pessoais e sensíveis sejam devidamente protegidas ao longo de todo o ciclo de vida da IA.","Com base na minha experiência, a proteção de dados pessoais em sistemas de Inteligência Artificial exige uma atenção especial, pois esses modelos geralmente dependem de grandes volumes de informações sensíveis. Um dos principais desafios é garantir que os princípios da LGPD, como finalidade, necessidade e transparência, sejam realmente aplicados no desenvolvimento e uso da IA. Além disso, é fundamental adotar medidas técnicas como anonimização, pseudonimização e controle de acesso, mas também promover uma cultura organizacional voltada para a proteção de dados. A combinação de conformidade legal, tecnologia adequada e conscientização das equipes é essencial para reduzir riscos e aumentar a confiança no uso da IA." 9/10/2025 20:06:11,Instituto Federal de Ensino,Tecnologia da Informação,Sim,Razoavelmente familiarizado(a),"Regras e políticas do local de trabalho, Experiência pessoal direta (por exemplo, como usuário de software), Por meio de notícias e mídia","Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido",Em cursos livres ou profissionalizantes,Moderadamente,Nenhuma,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Não,Não,Não,Nunca houve,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Alto,Muito Alto,Muito Alto,"Falta de Conhecimento / Entedimento de IA, Dificuldade em Predizer as Saídas de IA, Complexidade de IA","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Custos e recursos adicionais para implementar práticas de privacidade desde a concepção (Privacy by Design)","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA, Altos custos ou falta de recursos para implementar medidas de proteção de dados","Alguns indivíduos utilizam a IA para obter dados pessoais e sigilosos, entretanto ao realizar alguns testes com meu próprio nome no Chatgpt apenas, encontrei apenas dados públicos, menos dados do que no próprio Google, mesmo que alguém sem ética tente obter dados não é tão simples e gratuito.",è possível utilizar o chat temporário e pedir para apagar os dados da conversa. também é possível utilizar senhas nos chats para manter a privacidade.,"Considero que há algumas brechas, entretanto a inteligência artificial trabalha a partir do que a inteligência humana solicita." 9/12/2025 10:33:12,Administração Pública Federal,Tecnologia da Informação,Sim,Um pouco familiarizado(a),"Por meio de notícias e mídia, Tenho interesse pessoal nesse tema",Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados,"Não obtive nenhuma formação ou treinamento relacionado à ética em IA, Workshops associados a Ética de IA em Pesquisa",Pouco,Entre 1 e 2 anos,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Em elaboração,Não sei informar,Sim,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Muito Alto,Muito Alto,Muito Alto,"Falta de Conhecimento / Entedimento de IA, Dificuldade em Predizer as Saídas de IA, Complexidade de IA, Escopo de IA, Falta de Qualidade de Dados","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Custos e recursos adicionais para implementar práticas de privacidade desde a concepção (Privacy by Design), Dificuldade em conciliar performance dos modelos com proteção à privacidade dos dados, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA, Falta de ferramentas ou tecnologias maduras para garantir a privacidade de dados nos processos de IA","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA, Dificuldade em equilibrar desempenho dos modelos de IA com a proteção dos dados pessoais, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA","IA generativa trouxe novos desafios, como deepfakes, fake news e manipulação de opinião pública. Aqui, a ética envolve pensar não apenas no que a tecnologia pode fazer, mas em como evitar seu uso abusivo em contextos sociais e políticos.","Muitos sistemas de IA capturam dados em segundo plano (voz, imagem, padrões de navegação, biometria etc) sem que o usuário perceba. Essa “privacidade passiva” é um desafio ético e legal. Além de sistemas de IA usados para segurança (vigilância, monitoramento de redes, biometria) frequentemente tensionam a linha entre proteção e invasão de privacidade.","A IA costuma reutilizar dados para diferentes objetivos (treinamento, validação, melhoria contínua). Isso desafia o princípio da finalidade: até que ponto o reuso é legítimo? Ademais, a proteção de dados em IA depende de medidas como criptografia, controle de acesso, auditoria de logs e técnicas avançadas como federated learning ou privacy-preserving machine learning." 9/12/2025 17:22:17,Administração Pública Federal,Planejamento/Avaliação Desempenho Institucional,Não sei informar,Pouco familiarizado(a),"Regras e políticas do local de trabalho, Experiência profissional direta (por exemplo, como profissional de IA)","Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem",Nenhuma das respostas anterories,Nada,Entre 1 e 2 anos,Outro:,Nenhuma experiência,Nenhuma das atividades mencionadas,Não,Não sei informar,Não sei informar,Eventualmente (uma vez ao ano ou menos),Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Alto,Alto,Alto,Falta de Conhecimento / Entedimento de IA,"Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA","Falta de conhecimento sobre o que pode ser enviado para outros usuários, a partir do que que informo a IA",Falta de conhecimento de onde ficam os dados e para onde vão.,"Falta de conhecimento sobre o que pode ser enviado para outros usuários, a partir do que que informo a IA e armazenamento de dados." 9/15/2025 18:11:23,Administração Pública Federal,Tecnologia da Informação,Sim,Pouco familiarizado(a),Por meio de notícias e mídia,Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido,Não obtive nenhuma formação ou treinamento relacionado à ética em IA,Pouco,Nenhuma,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Não,Não,Não,Nunca houve,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Moderado,Moderado,Moderado,"Falta de Conhecimento / Entedimento de IA, Falta de Qualidade de Dados, Falta de Dados de Treinamento","Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Dificuldade em conciliar performance dos modelos com proteção à privacidade dos dados","Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA, Altos custos ou falta de recursos para implementar medidas de proteção de dados, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA",,, 9/16/2025 9:28:17,Administração Pública Federal,Tecnologia da Informação,Sim,Pouco familiarizado(a),"Por meio de notícias e mídia, Tenho interesse pessoal nesse tema","Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem",Não obtive nenhuma formação ou treinamento relacionado à ética em IA,Pouco,Menos de 1 ano,Nenhuma Experiência na área de IA,Menos de 1 ano,Nenhuma das atividades mencionadas,Sim,Em elaboração,Em elaboração,Não sei informar,Não,Não,Não,Não,Não,Não,Baixo,Baixo,Baixo,"Falta de Conhecimento / Entedimento de IA, Falta de Conhecimento de Trabalho dos outros, Dificuldade em Predizer as Saídas de IA, Dificuldade em Predizer as Consequências de IA, Complexidade de IA, Escopo de IA, Falta de Qualidade de Dados, Falta de Dados de Treinamento","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Custos e recursos adicionais para implementar práticas de privacidade desde a concepção (Privacy by Design), Dificuldade em conciliar performance dos modelos com proteção à privacidade dos dados, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA, Falta de ferramentas ou tecnologias maduras para garantir a privacidade de dados nos processos de IA","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA, Dificuldade em equilibrar desempenho dos modelos de IA com a proteção dos dados pessoais, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA",,, 9/16/2025 10:06:24,Administração Pública Federal,Proteção de Dados Pessoais,Não,Muito familiarizado(a),Tenho interesse pessoal nesse tema,"Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Contestabilidade / Contestability: Processo rápido e acessível que permita às pessoas contestarem o uso/resultados do sistema de IA, Justiça / Fairness: Sistema inclusivo e acessível, Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Bem-estar humano, social e ambiental / Human, societal, and environmental well-being: Beneficiar indivíduos, sociedade e meio ambiente, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem","Em cursos livres ou profissionalizantes, Pesquisas em grupo de pesquisa e durante elaboração de TCC na Graduação e pós",Moderadamente,Entre 3 e 5 anos,Outro:,Nenhuma experiência,Nenhuma das atividades mencionadas,Não,Não,Não sei informar,Nunca houve,Não sei informar,Não sei informar,Não sei informar,Não,Não sei informar,Não sei informar,Muito Alto,Muito Alto,Muito Alto,"Falta de Conhecimento / Entedimento de IA, Dificuldade em Predizer as Saídas de IA, Dificuldade em Predizer as Consequências de IA, Complexidade de IA, Escopo de IA","Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Custos e recursos adicionais para implementar práticas de privacidade desde a concepção (Privacy by Design), Dificuldade em conciliar performance dos modelos com proteção à privacidade dos dados, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA","Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA, Dificuldade em equilibrar desempenho dos modelos de IA com a proteção dos dados pessoais, Altos custos ou falta de recursos para implementar medidas de proteção de dados, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA",,, 9/16/2025 13:49:33,Universidade Federal de Ensino,Proteção de Dados Pessoais,Não,Pouco familiarizado(a),Tenho interesse pessoal nesse tema,Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados,Nenhuma das respostas anterories,Muito bem,Entre 1 e 2 anos,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Não sei informar,Não,Não sei informar,Nunca houve,Não,Não,Não,Não,Não,Não,Alto,Muito Alto,Muito Alto,"Falta de Conhecimento / Entedimento de IA, Dificuldade em Predizer as Consequências de IA, Falta de Dados de Treinamento","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA",Criar uma rede de relações entre o tema de ética nas instituições e dai cobrar a adicao da etica em IA,Que a ANPD seja mais presente e cobre as instituições quanto aos padrões e legislações sobre o tema.,Necessidade de modelos e apoio quanto à mudança de cultura quanto aos dados institucionais. 9/17/2025 16:00:03,Administração Pública Federal,Segurança da Informação,Sim,Razoavelmente familiarizado(a),"Regras e políticas do local de trabalho, Experiência profissional direta (por exemplo, como profissional de IA), Por meio de notícias e mídia","Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem",Não obtive nenhuma formação ou treinamento relacionado à ética em IA,Muito bem,Entre 6 e 10 anos,Especialista em IA / ML (Machine Learning),De 3 a 5 anos,"Engenharia de Características (Feature Engineering), Treinamento do Modelo, Avaliação do Modelo, Implantação do Modelo",Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Alto,Alto,Alto,"Dificuldade em Predizer as Saídas de IA, Complexidade de IA","Custos e recursos adicionais para implementar práticas de privacidade desde a concepção (Privacy by Design), Dificuldade em conciliar performance dos modelos com proteção à privacidade dos dados, Falta de ferramentas ou tecnologias maduras para garantir a privacidade de dados nos processos de IA","Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA, Dificuldade em equilibrar desempenho dos modelos de IA com a proteção dos dados pessoais",,, 9/17/2025 16:38:05,Universidade Federal de Ensino,Tecnologia da Informação,Sim,Pouco familiarizado(a),"Experiência profissional direta (por exemplo, como profissional de IA)",Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados,Não obtive nenhuma formação ou treinamento relacionado à ética em IA,Pouco,Entre 1 e 2 anos,Desenvolvedor(a) de IA,De 1 a 2 anos,"Especificação de Requisitos de Software, Documentação de Requisitos de Software, Verificação e Validação de Requisitos de Software, Coleta de Dados, Limpeza de Dados, Treinamento do Modelo, Avaliação do Modelo, Implantação do Modelo",Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Alto,Alto,Alto,"Falta de Conhecimento / Entedimento de IA, Dificuldade em Predizer as Saídas de IA, Complexidade de IA","Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Custos e recursos adicionais para implementar práticas de privacidade desde a concepção (Privacy by Design)","Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA",,, 9/17/2025 17:25:30,Administração Pública Federal,Tecnologia da Informação,Sim,Um pouco familiarizado(a),"Regras e políticas do local de trabalho, Por meio de notícias e mídia, Tenho interesse pessoal nesse tema","Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem",Não obtive nenhuma formação ou treinamento relacionado à ética em IA,Pouco,Menos de 1 ano,Nenhuma Experiência na área de IA,Menos de 1 ano,Coleta de Dados,Não,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Moderado,Alto,Alto,ausência de legislação nesse sentido,Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA,"Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais",,, 9/17/2025 18:24:15,Administração Pública Federal,Inteligência Artificial,Não,Razoavelmente familiarizado(a),Tenho interesse pessoal nesse tema,"Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Justiça / Fairness: Sistema inclusivo e acessível, Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Bem-estar humano, social e ambiental / Human, societal, and environmental well-being: Beneficiar indivíduos, sociedade e meio ambiente, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem","Durante a pós-graduação (mestrado, doutorado, especialização)",Moderadamente,Entre 1 e 2 anos,Cientista de Dados / IA,Menos de 1 ano,"Engenharia de Características (Feature Engineering), Treinamento do Modelo, Avaliação do Modelo, Implantação do Modelo",Não,Não,Não,Nunca houve,Não,Não,Não,Não,Não,Não,Alto,Alto,Alto,Falta de Conhecimento / Entedimento de IA,"Custos e recursos adicionais para implementar práticas de privacidade desde a concepção (Privacy by Design), Dificuldade em conciliar performance dos modelos com proteção à privacidade dos dados, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA","Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA",,, 9/17/2025 20:23:34,Administração Pública Federal,Tecnologia da Informação,Não sei informar,Razoavelmente familiarizado(a),"Experiência profissional direta (por exemplo, como profissional de IA)","Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Justiça / Fairness: Sistema inclusivo e acessível, Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Bem-estar humano, social e ambiental / Human, societal, and environmental well-being: Beneficiar indivíduos, sociedade e meio ambiente, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem",Em treinamentos oferecidos pela empresa onde trabalha ou trabalhou,Moderadamente,Entre 1 e 2 anos,Outro:,Nenhuma experiência,Nenhuma das atividades mencionadas,Sim,Em elaboração,Sim,Regularmente (mais de uma vez ao ano),Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Moderado,Moderado,Alto,"Dificuldade em Predizer as Saídas de IA, Dificuldade em Predizer as Consequências de IA, Complexidade de IA","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Dificuldade em conciliar performance dos modelos com proteção à privacidade dos dados, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Dificuldade em equilibrar desempenho dos modelos de IA com a proteção dos dados pessoais, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA",,, 9/18/2025 10:27:37,Administração Pública Federal,Inteligência Artificial,Sim,Um pouco familiarizado(a),"Experiência pessoal direta (por exemplo, como usuário de software)",Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados,Durante a graduação,Moderadamente,Menos de 1 ano,Desenvolvedor(a) de IA,De 1 a 2 anos,Nenhuma das atividades mencionadas,Não,Não,Não,Nunca houve,Não,Não,Não,Não,Não,Não,Moderado,Moderado,Moderado,Falta de Conhecimento / Entedimento de IA,Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA,Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA,,, 9/18/2025 10:44:17,Universidade Federal de Ensino,Tecnologia da Informação,Em elaboração,Muito familiarizado(a),Regras e políticas do local de trabalho,Contestabilidade / Contestability: Processo rápido e acessível que permita às pessoas contestarem o uso/resultados do sistema de IA,Em cursos livres ou profissionalizantes,Extremamente bem,Entre 1 e 2 anos,Especialista em IA / ML (Machine Learning),De 1 a 2 anos,"Especificação de Requisitos de Software, Gerenciamento de Requisitos de Software, Coleta de Dados, Avaliação do Modelo",Em elaboração,Em elaboração,Em elaboração,Eventualmente (uma vez ao ano ou menos),Não,Não,Não,Não,Não,Não sei informar,Alto,Alto,Alto,Falta de Conhecimento / Entedimento de IA,Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA,Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais,,, 9/19/2025 11:04:06,Administração Pública Federal,Governança e Compliance,Em elaboração,Pouco familiarizado(a),Regras e políticas do local de trabalho,"Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido",Não obtive nenhuma formação ou treinamento relacionado à ética em IA,Muito bem,Nenhuma,Outro:,Nenhuma experiência,"Especificação de Requisitos de Software, Governança e Conformidade de IA",Não,Não,Não,Nunca houve,Não sei informar,Não sei informar,Não,Não,Não sei informar,Não sei informar,Alto,Alto,Alto,"Falta de Conhecimento / Entedimento de IA, Recursos limitados para assuntos de governança e compliance","Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Custos e recursos adicionais para implementar práticas de privacidade desde a concepção (Privacy by Design), Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA, recursos","Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA, Altos custos ou falta de recursos para implementar medidas de proteção de dados, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA",é ainda um tema pouco conhecido,exige um entendimento mais aprofundados dos efeitos de IA,um universo ainda pouco explorado. 9/19/2025 11:09:33,Administração Pública Federal,Governança e Compliance,Sim,Razoavelmente familiarizado(a),"Regras e políticas do local de trabalho, Experiência pessoal direta (por exemplo, como usuário de software), Por meio de notícias e mídia, Tenho interesse pessoal nesse tema","Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Contestabilidade / Contestability: Processo rápido e acessível que permita às pessoas contestarem o uso/resultados do sistema de IA, Justiça / Fairness: Sistema inclusivo e acessível, Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Bem-estar humano, social e ambiental / Human, societal, and environmental well-being: Beneficiar indivíduos, sociedade e meio ambiente, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem","Durante a pós-graduação (mestrado, doutorado, especialização), Em treinamentos oferecidos pela empresa onde trabalha ou trabalhou",Muito bem,Menos de 1 ano,Outro:,Nenhuma experiência,Nenhuma das atividades mencionadas,Não,Sim,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Muito Alto,Muito Alto,Muito Alto,"Falta de Conhecimento / Entedimento de IA, Falta de Conhecimento de Trabalho dos outros","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais",,, 9/22/2025 20:34:54,Autarquia Federal,Tecnologia da Informação,Não sei informar,Pouco familiarizado(a),Por meio de notícias e mídia,Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA,Nenhuma das respostas anterories,Nada,Nenhuma,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Não,Não sei informar,Não sei informar,Nunca houve,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Muito Alto,Alto,Alto,Falta de Conhecimento / Entedimento de IA,"Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, ",Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA,,, 9/23/2025 20:04:56,Administração Pública Federal,Gestão da Informação,Sim,Muito familiarizado(a),"Regras e políticas do local de trabalho, Experiência pessoal direta (por exemplo, como usuário de software), Por meio de notícias e mídia, Tenho interesse pessoal nesse tema",Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido,Não obtive nenhuma formação ou treinamento relacionado à ética em IA,Extremamente bem,Nenhuma,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Sim,Sim,Em elaboração,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Muito Alto,Muito Alto,Muito Alto,"Falta de Conhecimento / Entedimento de IA, Complexidade de IA, Falta de Capacitação de IA","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Custos e recursos adicionais para implementar práticas de privacidade desde a concepção (Privacy by Design), Dificuldade em conciliar performance dos modelos com proteção à privacidade dos dados, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA, Falta de ferramentas ou tecnologias maduras para garantir a privacidade de dados nos processos de IA","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA, Dificuldade em equilibrar desempenho dos modelos de IA com a proteção dos dados pessoais, Altos custos ou falta de recursos para implementar medidas de proteção de dados, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA",Não,"Gostaria, porém, tenho pouca ou nenhuma experiência","Não tenho experiência desejada, porém, a capacitação seria uma ótima opção." 9/24/2025 10:41:24,Administração Pública Federal,Governança e Compliance,Sim,Razoavelmente familiarizado(a),"Regras e políticas do local de trabalho, Experiência pessoal direta (por exemplo, como usuário de software)","Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Bem-estar humano, social e ambiental / Human, societal, and environmental well-being: Beneficiar indivíduos, sociedade e meio ambiente, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido","Durante a pós-graduação (mestrado, doutorado, especialização), Em treinamentos oferecidos pela empresa onde trabalha ou trabalhou",Moderadamente,Entre 1 e 2 anos,Outro:,Menos de 1 ano,Avaliação do Modelo,Sim,Sim,Sim,Regularmente (mais de uma vez ao ano),Não,Não,Sim,Sim,Não,Não,Alto,Alto,Alto,Dificuldade em Predizer as Consequências de IA,"Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA","Sim, as questões relacionadas aos riscos associados à falta de ética em IA e o impacto a vida pessoal, a exemplo da tomada de decisão da IA por conta própria, acredito que essa clareza poderia fomentar e aprimorar a cultura de IA. ","Sim, seria importante abordar questões relacionadas aos riscos associados à falta de privacidade em IA, a exemplo de uso de dados pessoais sem consentimento do titular, acredito que essa clareza poderia fomentar e aprimorar a cultura de IA. ","Sim, seria importante abordar questões relacionadas aos riscos associados à falta de proteção de dados em IA, a exemplo de vazamento de dados e a falta de mecanismos de proteção, acredito que essa clareza poderia fomentar e aprimorar a cultura de IA. " 9/24/2025 11:23:23,Administração Pública Federal,Auditoria Interna ,Sim,Razoavelmente familiarizado(a),Tenho interesse pessoal nesse tema,"Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados",Não obtive nenhuma formação ou treinamento relacionado à ética em IA,Moderadamente,Menos de 1 ano,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Sim,Não sei informar,Em elaboração,Não sei informar,Não,Não,Não,Não,Não,Não,Muito Alto,Muito Alto,Muito Alto,Falta de Conhecimento / Entedimento de IA,"Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA",Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA,Não ,Não ,Não 9/24/2025 13:10:05,Administração Pública Federal,Tecnologia da Informação,Não sei informar,Pouco familiarizado(a),Regras e políticas do local de trabalho,Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA,Durante a graduação,Nada,Nenhuma,Outro:,Nenhuma experiência,nenhum,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Muito Baixo,Muito Baixo,Muito Baixo,Dificuldade em Predizer as Consequências de IA,Custos e recursos adicionais para implementar práticas de privacidade desde a concepção (Privacy by Design),Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais,,, 9/24/2025 13:25:24,Universidade Federal de Ensino,Tecnologia da Informação,Não sei informar,Pouco familiarizado(a),"Experiência pessoal direta (por exemplo, como usuário de software), Tenho interesse pessoal nesse tema","Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem",Não obtive nenhuma formação ou treinamento relacionado à ética em IA,Moderadamente,Nenhuma,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Muito Alto,Muito Alto,Muito Alto,"Dificuldade em Predizer as Consequências de IA, Falta de Dados de Treinamento","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Dificuldade em conciliar performance dos modelos com proteção à privacidade dos dados, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA","Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Altos custos ou falta de recursos para implementar medidas de proteção de dados, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA",,, 9/24/2025 13:25:31,Administração Pública Federal,Tecnologia da Informação,Sim,Pouco familiarizado(a),"Experiência pessoal direta (por exemplo, como usuário de software), Por meio de notícias e mídia","Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Bem-estar humano, social e ambiental / Human, societal, and environmental well-being: Beneficiar indivíduos, sociedade e meio ambiente, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados",Não obtive nenhuma formação ou treinamento relacionado à ética em IA,Nada,Nenhuma,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Não sei informar,Não sei informar,Não sei informar,Nunca houve,Não,Não,Não,Não,Não,Não,Baixo,Baixo,Baixo,"Falta de Conhecimento / Entedimento de IA, Falta de Qualidade de Dados, Falta de Dados de Treinamento","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA, Falta de ferramentas ou tecnologias maduras para garantir a privacidade de dados nos processos de IA","Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA",,, 9/24/2025 13:30:23,Administração Pública Federal,Tecnologia da Informação,Sim,Razoavelmente familiarizado(a),"Experiência pessoal direta (por exemplo, como usuário de software), Por meio de notícias e mídia",Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA,"Durante a graduação, Em cursos livres ou profissionalizantes, Em treinamentos oferecidos pela empresa onde trabalha ou trabalhou",Muito bem,Entre 1 e 2 anos,Outro:,Menos de 1 ano,Nenhuma das atividades mencionadas,Em elaboração,Em elaboração,Em elaboração,Eventualmente (uma vez ao ano ou menos),Não,Sim,Não,Não,Sim,Não,Moderado,Moderado,Moderado,"Falta de Conhecimento / Entedimento de IA, Falta de Conhecimento de Trabalho dos outros, Falta de Qualidade de Dados, Falta de Dados de Treinamento","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Dificuldade em equilibrar desempenho dos modelos de IA com a proteção dos dados pessoais, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA",,, 9/25/2025 10:55:16,Universidade Federal de Ensino,Tecnologia da Informação,Não,Um pouco familiarizado(a),"Experiência pessoal direta (por exemplo, como usuário de software), Experiência profissional direta (por exemplo, como profissional de IA), Por meio de notícias e mídia, Tenho interesse pessoal nesse tema","Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Contestabilidade / Contestability: Processo rápido e acessível que permita às pessoas contestarem o uso/resultados do sistema de IA, Justiça / Fairness: Sistema inclusivo e acessível, Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Bem-estar humano, social e ambiental / Human, societal, and environmental well-being: Beneficiar indivíduos, sociedade e meio ambiente, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem","Durante a pós-graduação (mestrado, doutorado, especialização)",Moderadamente,Menos de 1 ano,Engenheiro(a) de IA,Menos de 1 ano,"Especificação de Requisitos de Software, Documentação de Requisitos de Software, Verificação e Validação de Requisitos de Software, Gerenciamento de Requisitos de Software, Coleta de Dados, Treinamento do Modelo",Não,Não,Sim,Nunca houve,Não,Não,Não,Não,Não,Não,Muito Alto,Muito Alto,Muito Alto,"Falta de Conhecimento / Entedimento de IA, Falta de Conhecimento de Trabalho dos outros, Dificuldade em Predizer as Saídas de IA, Dificuldade em Predizer as Consequências de IA",Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados,Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais,,, 9/25/2025 11:09:43,Instituição do terceiro setor,Tecnologia da Informação,Em elaboração,Muito familiarizado(a),"Regras e políticas do local de trabalho, Experiência pessoal direta (por exemplo, como usuário de software), Experiência profissional direta (por exemplo, como profissional de IA), Por meio de notícias e mídia, Tenho interesse pessoal nesse tema","Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Justiça / Fairness: Sistema inclusivo e acessível, Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados","Durante a pós-graduação (mestrado, doutorado, especialização), Em cursos livres ou profissionalizantes",Muito bem,Entre 1 e 2 anos,Designer de IA,De 1 a 2 anos,"Especificação de Requisitos de Software, Documentação de Requisitos de Software, Verificação e Validação de Requisitos de Software, Gerenciamento de Requisitos de Software, Rotulagem de Dados, Treinamento do Modelo, Avaliação do Modelo, Monitoramento do Modelo",Não,Não,Não,Eventualmente (uma vez ao ano ou menos),Sim,Não,Não,Não,Não,Não,Moderado,Moderado,Alto,"Dificuldade em Predizer as Consequências de IA, Falta de Qualidade de Dados, Falta de Dados de Treinamento","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Custos e recursos adicionais para implementar práticas de privacidade desde a concepção (Privacy by Design), Dificuldade em conciliar performance dos modelos com proteção à privacidade dos dados, Falta de ferramentas ou tecnologias maduras para garantir a privacidade de dados nos processos de IA","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Dificuldade em equilibrar desempenho dos modelos de IA com a proteção dos dados pessoais, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA",,, 9/25/2025 17:22:34,Administração Pública Federal,Governança e Compliance,Sim,Muito familiarizado(a),"Experiência pessoal direta (por exemplo, como usuário de software), Experiência profissional direta (por exemplo, como profissional de IA), Por meio de notícias e mídia, Tenho interesse pessoal nesse tema","Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Bem-estar humano, social e ambiental / Human, societal, and environmental well-being: Beneficiar indivíduos, sociedade e meio ambiente, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido","Durante a pós-graduação (mestrado, doutorado, especialização), Em cursos livres ou profissionalizantes",Muito bem,Entre 1 e 2 anos,Especialista em IA / ML (Machine Learning),Nenhuma experiência,"Especificação de Requisitos de Software, Verificação e Validação de Requisitos de Software, Gerenciamento de Requisitos de Software",Sim,Em elaboração,Em elaboração,Nunca houve,Sim,Não sei informar,Não,Não,Não,Não,Alto,Alto,Alto,"Falta de Conhecimento / Entedimento de IA, Dificuldade em Predizer as Consequências de IA, Escopo de IA, Falta de Qualidade de Dados","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Falta de ferramentas ou tecnologias maduras para garantir a privacidade de dados nos processos de IA","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA",,, 9/25/2025 17:33:34,Universidade Federal de Ensino,Inteligência Artificial,Não,Pouco familiarizado(a),"Experiência pessoal direta (por exemplo, como usuário de software), Experiência profissional direta (por exemplo, como profissional de IA), Por meio de notícias e mídia","Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem","Durante a graduação, Durante a pós-graduação (mestrado, doutorado, especialização)",Pouco,Entre 3 e 5 anos,Desenvolvedor(a) de IA,De 3 a 5 anos,"Coleta de Dados, Limpeza de Dados, Rotulagem de Dados, Treinamento do Modelo, Avaliação do Modelo, Implantação do Modelo",Não,Não,Não,Nunca houve,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Alto,Muito Alto,Muito Alto,"Falta de Conhecimento / Entedimento de IA, Complexidade de IA, Falta de Qualidade de Dados","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados","Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA",,"Pouco é se falado para a população que não é recomendado compartilhar dados pessoais/empresariais dentro de prompts, mesmo que geralmente tenha nos sites de IA (muitas das vezes em letras pequenas ou escondido)", 9/25/2025 18:01:10,Administração Pública Federal,Tecnologia da Informação,Não sei informar,Nada familiarizado(a),Por meio de notícias e mídia,Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido,Não obtive nenhuma formação ou treinamento relacionado à ética em IA,Nada,Nenhuma,Nenhuma Experiência na área de IA,Nenhuma experiência,Coleta de Dados,Não,Não,Não sei informar,Nunca houve,Não,Não,Não,Não,Não,Não,Alto,Moderado,Alto,"Dificuldade em Predizer as Saídas de IA, Dificuldade em Predizer as Consequências de IA","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA",,, 9/25/2025 18:29:41,Administração Pública Federal,Tecnologia da Informação,Em elaboração,Um pouco familiarizado(a),"Regras e políticas do local de trabalho, Por meio de notícias e mídia, Tenho interesse pessoal nesse tema","Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido",Não obtive nenhuma formação ou treinamento relacionado à ética em IA,Nada,Nenhuma,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Não,Em elaboração,Não sei informar,Nunca houve,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Moderado,Alto,Muito Alto,"Dificuldade em Predizer as Saídas de IA, Traduzir a ética em instrumentos técnicos de proteção","Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Falta de ferramentas ou tecnologias maduras para garantir a privacidade de dados nos processos de IA","Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA",,, 9/25/2025 18:38:03,Universidade Federal de Ensino,"Gestão de projetos de TI, com ênfase em gêmeos digitais",Não sei informar,Razoavelmente familiarizado(a),"Experiência pessoal direta (por exemplo, como usuário de software), Experiência profissional direta (por exemplo, como profissional de IA), Por meio de notícias e mídia, Tenho interesse pessoal nesse tema","Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Contestabilidade / Contestability: Processo rápido e acessível que permita às pessoas contestarem o uso/resultados do sistema de IA, Justiça / Fairness: Sistema inclusivo e acessível, Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Bem-estar humano, social e ambiental / Human, societal, and environmental well-being: Beneficiar indivíduos, sociedade e meio ambiente, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem",Não obtive nenhuma formação ou treinamento relacionado à ética em IA,Nada,Entre 3 e 5 anos,Outro:,Nenhuma experiência,Nenhuma das atividades mencionadas,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Muito Alto,Muito Alto,Muito Alto,"Falta de Conhecimento / Entedimento de IA, Complexidade de IA, Escopo de IA, Falta de Qualidade de Dados","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Custos e recursos adicionais para implementar práticas de privacidade desde a concepção (Privacy by Design), Dificuldade em conciliar performance dos modelos com proteção à privacidade dos dados, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA, Falta de ferramentas ou tecnologias maduras para garantir a privacidade de dados nos processos de IA","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA, Dificuldade em equilibrar desempenho dos modelos de IA com a proteção dos dados pessoais, Altos custos ou falta de recursos para implementar medidas de proteção de dados, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA",,, 9/25/2025 19:16:55,Empresa pública,Tecnologia da Informação,Sim,Muito familiarizado(a),"Experiência pessoal direta (por exemplo, como usuário de software), Experiência profissional direta (por exemplo, como profissional de IA), Tenho interesse pessoal nesse tema","Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Contestabilidade / Contestability: Processo rápido e acessível que permita às pessoas contestarem o uso/resultados do sistema de IA, Justiça / Fairness: Sistema inclusivo e acessível, Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Bem-estar humano, social e ambiental / Human, societal, and environmental well-being: Beneficiar indivíduos, sociedade e meio ambiente, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem","Durante a pós-graduação (mestrado, doutorado, especialização), Em cursos livres ou profissionalizantes",Muito bem,Entre 3 e 5 anos,Desenvolvedor(a) de IA,De 3 a 5 anos,"Especificação de Requisitos de Software, Verificação e Validação de Requisitos de Software, Gerenciamento de Requisitos de Software",Em elaboração,Em elaboração,Em elaboração,Eventualmente (uma vez ao ano ou menos),Não,Não,Não,Não sei informar,Sim,Sim,Alto,Muito Alto,Alto,"Falta de Conhecimento / Entedimento de IA, Complexidade de IA, Escopo de IA, Falta de Qualidade de Dados","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA, Falta de ferramentas ou tecnologias maduras para garantir a privacidade de dados nos processos de IA","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA",,, 9/25/2025 20:38:05,Administração Pública Federal,Proteção de Dados Pessoais,Sim,Pouco familiarizado(a),Por meio de notícias e mídia,"Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Contestabilidade / Contestability: Processo rápido e acessível que permita às pessoas contestarem o uso/resultados do sistema de IA, Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Bem-estar humano, social e ambiental / Human, societal, and environmental well-being: Beneficiar indivíduos, sociedade e meio ambiente, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem",Não obtive nenhuma formação ou treinamento relacionado à ética em IA,Pouco,Entre 1 e 2 anos,Outro:,Nenhuma experiência,"Coleta de Dados, Avaliação do Modelo, Monitoramento do Modelo",Não,Não,Não,Não sei informar,Não,Não,Não,Não,Não,Não,Alto,Moderado,Alto,"Dificuldade em Predizer as Consequências de IA, Escopo de IA","Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA, Falta de ferramentas ou tecnologias maduras para garantir a privacidade de dados nos processos de IA","Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA",,, 9/26/2025 8:14:30,Administração Pública Estadual,Tecnologia da Informação,Sim,Razoavelmente familiarizado(a),"Experiência pessoal direta (por exemplo, como usuário de software), Tenho interesse pessoal nesse tema","Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem","Durante a pós-graduação (mestrado, doutorado, especialização)",Muito bem,Menos de 1 ano,Desenvolvedor(a) de IA,Menos de 1 ano,"Coleta de Dados, Limpeza de Dados",Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Moderado,Moderado,Alto,"Falta de Conhecimento / Entedimento de IA, Complexidade de IA, Falta de Qualidade de Dados","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Custos e recursos adicionais para implementar práticas de privacidade desde a concepção (Privacy by Design), Dificuldade em conciliar performance dos modelos com proteção à privacidade dos dados, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA, Falta de ferramentas ou tecnologias maduras para garantir a privacidade de dados nos processos de IA","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA, Dificuldade em equilibrar desempenho dos modelos de IA com a proteção dos dados pessoais, Altos custos ou falta de recursos para implementar medidas de proteção de dados, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA",,, 9/26/2025 9:40:44,Instituto Federal de Ensino,Governança e Compliance,Sim,Pouco familiarizado(a),"Por meio de notícias e mídia, Tenho interesse pessoal nesse tema","Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos",Não obtive nenhuma formação ou treinamento relacionado à ética em IA,Nada,Menos de 1 ano,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Não,Não,Não sei informar,Não sei informar,Não,Não,Não,Não,Não sei informar,Não sei informar,Baixo,Moderado,Alto,"Falta de Conhecimento / Entedimento de IA, Dificuldade em Predizer as Saídas de IA, Dificuldade em Predizer as Consequências de IA","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA, Falta de ferramentas ou tecnologias maduras para garantir a privacidade de dados nos processos de IA","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA",,, 9/26/2025 10:59:35,Administração Pública Federal,Proteção de Dados Pessoais,Não,Razoavelmente familiarizado(a),"Por meio de notícias e mídia, Tenho interesse pessoal nesse tema","Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Contestabilidade / Contestability: Processo rápido e acessível que permita às pessoas contestarem o uso/resultados do sistema de IA, Justiça / Fairness: Sistema inclusivo e acessível, Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Bem-estar humano, social e ambiental / Human, societal, and environmental well-being: Beneficiar indivíduos, sociedade e meio ambiente, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem","Durante a pós-graduação (mestrado, doutorado, especialização)",Pouco,Nenhuma,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Em elaboração,Não,Em elaboração,Nunca houve,Não,Não,Não,Não,Não,Não,Muito Alto,Muito Alto,Muito Alto,"Falta de Conhecimento / Entedimento de IA, Dificuldade em Predizer as Saídas de IA, Dificuldade em Predizer as Consequências de IA, Escopo de IA, Falta de Qualidade de Dados","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Custos e recursos adicionais para implementar práticas de privacidade desde a concepção (Privacy by Design), Dificuldade em conciliar performance dos modelos com proteção à privacidade dos dados, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA, Falta de ferramentas ou tecnologias maduras para garantir a privacidade de dados nos processos de IA","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Dificuldade em equilibrar desempenho dos modelos de IA com a proteção dos dados pessoais, Altos custos ou falta de recursos para implementar medidas de proteção de dados, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA",Nao,Não ,Nao 9/26/2025 12:03:44,Órgão de Controle (TCU),Tecnologia da Informação,Não sei informar,Pouco familiarizado(a),Por meio de notícias e mídia,"Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido",Não obtive nenhuma formação ou treinamento relacionado à ética em IA,Nada,Menos de 1 ano,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Não,Não sei informar,Não,Nunca houve,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Moderado,Alto,Alto,Falta de Conhecimento / Entedimento de IA,Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA,Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA,,, 9/26/2025 16:20:21,Indústria,Inteligência Artificial,Em elaboração,Razoavelmente familiarizado(a),"Regras e políticas do local de trabalho, Experiência pessoal direta (por exemplo, como usuário de software), Experiência profissional direta (por exemplo, como profissional de IA), Por meio de notícias e mídia","Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Justiça / Fairness: Sistema inclusivo e acessível, Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Bem-estar humano, social e ambiental / Human, societal, and environmental well-being: Beneficiar indivíduos, sociedade e meio ambiente, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido","Durante a pós-graduação (mestrado, doutorado, especialização), Em cursos livres ou profissionalizantes",Moderadamente,Entre 1 e 2 anos,Engenheiro(a) de IA,De 1 a 2 anos,"Especificação de Requisitos de Software, Verificação e Validação de Requisitos de Software, Coleta de Dados, Limpeza de Dados, Rotulagem de Dados, Treinamento do Modelo, Avaliação do Modelo, Implantação do Modelo, Monitoramento do Modelo",Não,Não,Não,Nunca houve,Não,Não,Não,Não,Sim,Não,Muito Alto,Muito Alto,Muito Alto,"Falta de Conhecimento / Entedimento de IA, Dificuldade em Predizer as Saídas de IA, Dificuldade em Predizer as Consequências de IA, Complexidade de IA","Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA, Falta de ferramentas ou tecnologias maduras para garantir a privacidade de dados nos processos de IA","Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA",,, 9/26/2025 17:20:23,Administração Pública Estadual,Tecnologia da Informação,Em elaboração,Um pouco familiarizado(a),"Experiência pessoal direta (por exemplo, como usuário de software), Tenho interesse pessoal nesse tema","Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Bem-estar humano, social e ambiental / Human, societal, and environmental well-being: Beneficiar indivíduos, sociedade e meio ambiente, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem",Em cursos livres ou profissionalizantes,Moderadamente,Menos de 1 ano,Profissional de IA / ML (Machine Learning),Menos de 1 ano,Coleta de Dados,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não,Não,Não,Não,Não,Não,Alto,Alto,Alto,"Falta de Conhecimento / Entedimento de IA, Falta de Conhecimento de Trabalho dos outros","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Custos e recursos adicionais para implementar práticas de privacidade desde a concepção (Privacy by Design), Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA",Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA,,, 9/28/2025 7:35:19,Administração Pública Federal,Governança e Compliance,Sim,Razoavelmente familiarizado(a),"Regras e políticas do local de trabalho, Experiência pessoal direta (por exemplo, como usuário de software), Por meio de notícias e mídia, Tenho interesse pessoal nesse tema","Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Justiça / Fairness: Sistema inclusivo e acessível, Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Bem-estar humano, social e ambiental / Human, societal, and environmental well-being: Beneficiar indivíduos, sociedade e meio ambiente, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem","Durante a pós-graduação (mestrado, doutorado, especialização), Em treinamentos oferecidos pela empresa onde trabalha ou trabalhou",Extremamente bem,Entre 1 e 2 anos,Cientista de Dados / IA,De 1 a 2 anos,"Especificação de Requisitos de Software, Documentação de Requisitos de Software, Verificação e Validação de Requisitos de Software, Coleta de Dados, Limpeza de Dados, Rotulagem de Dados",Em elaboração,Em elaboração,Em elaboração,Nunca houve,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Alto,Alto,Muito Alto,"Falta de Conhecimento / Entedimento de IA, Falta de Conhecimento de Trabalho dos outros, Dificuldade em Predizer as Saídas de IA, Dificuldade em Predizer as Consequências de IA, Complexidade de IA","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Custos e recursos adicionais para implementar práticas de privacidade desde a concepção (Privacy by Design), Dificuldade em conciliar performance dos modelos com proteção à privacidade dos dados, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA, Falta de ferramentas ou tecnologias maduras para garantir a privacidade de dados nos processos de IA","Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA, Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA, Dificuldade em equilibrar desempenho dos modelos de IA com a proteção dos dados pessoais, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA",,, 9/28/2025 8:08:42,Administração Pública Federal,Administração,Sim,Um pouco familiarizado(a),"Regras e políticas do local de trabalho, Por meio de notícias e mídia","Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados",Em treinamentos oferecidos pela empresa onde trabalha ou trabalhou,Moderadamente,Entre 1 e 2 anos,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Não sei informar,Sim,Não sei informar,Nunca houve,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Moderado,Moderado,Moderado,Não sei,Não sei,Não sei,,, 9/28/2025 18:12:09,Universidade Federal de Ensino,a,Sim,Pouco familiarizado(a),Tenho interesse pessoal nesse tema,"Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem",Nenhuma das respostas anterories,Moderadamente,Nenhuma,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Não sei informar,Não sei informar,Não sei informar,Nunca houve,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Alto,Alto,Alto,"Falta de Conhecimento / Entedimento de IA, Falta de Dados de Treinamento","Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Falta de ferramentas ou tecnologias maduras para garantir a privacidade de dados nos processos de IA","Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA", , , 9/29/2025 14:43:26,Universidade Federal de Ensino,Tecnologia da Informação,Sim,Razoavelmente familiarizado(a),"Regras e políticas do local de trabalho, Experiência pessoal direta (por exemplo, como usuário de software), Experiência profissional direta (por exemplo, como profissional de IA), Por meio de notícias e mídia, Tenho interesse pessoal nesse tema","Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos",Leitura,Moderadamente,Entre 6 e 10 anos,Cientista de Dados / IA,De 3 a 5 anos,"Coleta de Dados, Limpeza de Dados, Rotulagem de Dados, Engenharia de Características (Feature Engineering), Treinamento do Modelo, Avaliação do Modelo, Implantação do Modelo, Monitoramento do Modelo",Não,Não,Não,Nunca houve,Não,Não,Não,Não,Não,Não,Baixo,Moderado,Moderado,"Falta de Conhecimento / Entedimento de IA, Dificuldade em Predizer as Consequências de IA",Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA,Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA,,, 9/30/2025 14:09:22,Outro,Big data ,Sim,Um pouco familiarizado(a),"Experiência pessoal direta (por exemplo, como usuário de software), Experiência profissional direta (por exemplo, como profissional de IA)","Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Justiça / Fairness: Sistema inclusivo e acessível, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido",Durante a graduação,Muito bem,Entre 1 e 2 anos,Desenvolvedor(a) de IA,De 1 a 2 anos,"Coleta de Dados, Limpeza de Dados, Rotulagem de Dados, Treinamento do Modelo",Em elaboração,Não sei informar,Não sei informar,Regularmente (mais de uma vez ao ano),Não,Não,Não,Não,Não,Não,Moderado,Moderado,Alto,Escopo de IA,Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA,Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA,,, 9/30/2025 14:29:59,Órgão de Controle (TCU),Inteligência Artificial,Sim,Muito familiarizado(a),"Regras e políticas do local de trabalho, Experiência pessoal direta (por exemplo, como usuário de software), Experiência profissional direta (por exemplo, como profissional de IA), Por meio de notícias e mídia, Tenho interesse pessoal nesse tema","Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Contestabilidade / Contestability: Processo rápido e acessível que permita às pessoas contestarem o uso/resultados do sistema de IA, Justiça / Fairness: Sistema inclusivo e acessível, Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Bem-estar humano, social e ambiental / Human, societal, and environmental well-being: Beneficiar indivíduos, sociedade e meio ambiente, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido, Transparência e explicabilidade / Transparency and explainability: Transparência e divulgação responsável para ajudar as pessoas a entender os impactos da IA e se engajarem","Durante a graduação, Em cursos livres ou profissionalizantes, Em treinamentos oferecidos pela empresa onde trabalha ou trabalhou",Muito bem,Entre 11 e 15 anos,Profissional de IA / ML (Machine Learning),De 6 a 10 anos,"Especificação de Requisitos de Software, Verificação e Validação de Requisitos de Software, Coleta de Dados, Limpeza de Dados, Treinamento do Modelo, Avaliação do Modelo, Implantação do Modelo, Monitoramento do Modelo",Sim,Sim,Não,Regularmente (mais de uma vez ao ano),Não,Não,Não,Não,Não,Não,Muito Alto,Muito Alto,Muito Alto,"Falta de Conhecimento / Entedimento de IA, Falta de Conhecimento de Trabalho dos outros, Dificuldade em Predizer as Consequências de IA, Falta de Qualidade de Dados","Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA, Dificuldade técnica para anonimizar ou minimizar dados em modelos de IA, Falta de conhecimento ou capacitação das equipes sobre privacidade e proteção de dados, Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA, Falta de ferramentas ou tecnologias maduras para garantir a privacidade de dados nos processos de IA","Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Limitações técnicas para garantir anonimização, pseudonimização ou minimização de dados em modelos de IA, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA, Falta de ferramentas ou metodologias práticas para aplicar princípios da LGPD (como finalidade, necessidade e adequação) em sistemas de IA",,, 10/2/2025 11:47:56,Empresa publica,Tecnologia da Informação,Sim,Um pouco familiarizado(a),"Regras e políticas do local de trabalho, Experiência pessoal direta (por exemplo, como usuário de software)","Responsabilidade / Accountability : Pessoas identificáveis e responsáveis pelos resultados do sistema de IA, Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados, Confiabilidade e segurança / Reliability and safety: Operar de forma confiável conforme o propósito pretendido",Não obtive nenhuma formação ou treinamento relacionado à ética em IA,Nada,Entre 6 e 10 anos,Nenhuma Experiência na área de IA,Nenhuma experiência,Nenhuma das atividades mencionadas,Não sei informar,Não,Não sei informar,Nunca houve,Não,Não,Não,Não,Não sei informar,Não sei informar,Alto,Alto,Alto,"Falta de Conhecimento / Entedimento de IA, Falta de Dados de Treinamento",Falta de diretrizes claras ou regulamentações específicas sobre privacidade e IA,Falta de regulamentações específicas ou de clareza legal sobre uso de dados pessoais em IA,,, 10/8/2025 16:21:35,Universidade Federal de Ensino,"Ensino, Pesquisa e Extensão",Não sei informar,Razoavelmente familiarizado(a),"Experiência pessoal direta (por exemplo, como usuário de software), Experiência profissional direta (por exemplo, como profissional de IA), Por meio de notícias e mídia, Tenho interesse pessoal nesse tema","Valores centrados no ser humano / Human-centered values: Respeito aos direitos humanos, diversidade e autonomia dos indivíduos, Bem-estar humano, social e ambiental / Human, societal, and environmental well-being: Beneficiar indivíduos, sociedade e meio ambiente, Proteção de privacidade e segurança / Privacy protection and security: Respeitar e proteger direitos de privacidade e garantir segurança dos dados","Não obtive nenhuma formação ou treinamento relacionado à ética em IA, Atuando profissionalmente como educador",Muito bem,Mais de 20 anos,Designer de IA,De 3 a 5 anos,"Nenhuma das atividades mencionadas, Aquisição de Conhecmento, IA simbólica e neurosimbólica",Sim,Em elaboração,Sim,Eventualmente (uma vez ao ano ou menos),Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Não sei informar,Alto,Alto,Alto,"Dificuldade em Predizer as Saídas de IA, Dificuldade em Predizer as Consequências de IA, Complexidade de IA","Custos e recursos adicionais para implementar práticas de privacidade desde a concepção (Privacy by Design), Cultura organizacional que não prioriza a privacidade como valor central no desenvolvimento de soluções de IA","Baixo nível de conscientização ou capacitação das equipes sobre proteção de dados pessoais, Cultura organizacional que ainda não incorpora proteção de dados como princípio no desenvolvimento de soluções de IA",,,