Como estabelecer diretrizes e princípios de design em engenharia

Concluído

Se você estiver desenvolvendo, implementando ou gerenciando a IA internamente, o ideal será considerar como respeitar os princípios norteadores de sua organização em cada etapa do ciclo de vida da IA. Para capacitar os funcionários técnicos a fazer isso, descobrimos que é útil transformar seus princípios em diretrizes práticas.

A Microsoft também está nesse percurso e desejamos compartilhar nossa perspectiva e nossas experiências. Há vários anos, trabalhamos com outras empresas e instituições para ajudar os desenvolvedores em toda parte a criar e implantar a IA com responsabilidade. Também utilizamos ferramentas open-source e recorremos a organizações líderes como o PAI (Partnership on AI) para obtermos as melhores práticas, os padrões do setor e diretrizes. Utilizando diretrizes práticas, esperamos que você e sua equipe não precisem desenvolver sua abordagem do zero.

Princípios e diretrizes

A jornada de uso responsável de IA pela Microsoft começou quando estabelecemos seis princípios fundamentais para orientar nosso desenvolvimento e uso de IA, descritos em um livro que publicamos em 2018, O futuro computado: imparcialidade, confiabilidade e segurança, privacidade e segurança, inclusão, transparência e responsabilidade.3 Com esses princípios fundamentais em vigor, começamos a desenvolver diretrizes mais específicas do cenário.

Por exemplo, em maio de 2019, publicamos um artigo chamado Diretrizes para interação entre humanos e a IA, que inclui 18 diretrizes geralmente aplicáveis para ajudar os desenvolvedores a projetar sistemas de uso responsável de IA e centrados em humanos.4 Essas diretrizes sintetizam mais de 150 recomendações de design compiladas em mais de 20 anos de pesquisa na academia e no setor. Elas sugerem as melhores práticas de como os sistemas de IA devem se comportar após a interação inicial, durante a interação regular, quando estão inevitavelmente errados e ao longo do tempo.

Também lançamos diretrizes para ajudar os desenvolvedores a projetar um uso responsável de IA de conversa.5 Como qualquer tecnologia, os assistentes virtuais e os bots podem representar um risco significativo quando desenvolvidos e implantados de forma inadequada. Isso é especialmente verdadeiro quando elas ajudam as pessoas a navegar por informações relacionadas a emprego, finanças ou saúde. Criamos essas diretrizes com base nas próprias experiências, em nossa pesquisa sobre o uso responsável de IA e ouvindo nossos clientes e parceiros.

Quanto à tecnologia de reconhecimento do rosto, os desenvolvedores que usam a API de Detecção Facial do Azure podem aproveitar as diretrizes que publicamos para ajudá-los a entender melhor as funcionalidades e as limitações, as formas de influenciar a precisão e a importância de considerar como o sistema será implantado e usado.6 Também estabelecemos seis princípios para reger a maneira como desenvolvemos e implantamos o reconhecimento do rosto na Microsoft e incentivamos outras organizações a também considerar a possibilidade de estabelecer princípios norteadores.7 Embora todas as empresas sejam responsabilizadas por exercitar responsabilidade nessa área, solicitamos uma maior regulamentação e governança legal, a fim de atenuar amplamente os riscos de uso indevido.8

Essas diretrizes que estabelecemos evoluirão ao longo do tempo, pois a Microsoft continua aprendendo com a própria experiência e com as experiências de outras empresas de tecnologia, os clientes, o meio acadêmico, a sociedade civil e organizações com vários stakeholders também. Para obter mais informações e links para essas diretrizes, confira a seção Resumo e recursos deste módulo.

Em seguida, vamos falar mais sobre as ferramentas inovadoras que ajudam os funcionários técnicos a implementar princípios éticos, que vão do design e da coleta de dados ao desenvolvimento e à implantação.