Capacitar os desenvolvedores com políticas e governança de IA
Uma organização de desenvolvedores moderna deve ter uma política clara e detalhada que descreva o uso adequado das ferramentas de IA. Os desenvolvedores já estão usando IA para trabalho pessoal e profissional, e essas políticas são sua oportunidade de proteger a integridade e a segurança do seu código, aumentar a produtividade e incentivar o uso eficiente de práticas recomendadas de ferramentas de IA.
Neste guia, você aprenderá:
Como usar políticas internas de desenvolvedores para incentivar o uso seguro e eficiente da IA.
O que incluir em uma política interna de desenvolvedor para IA.
Segurança
Ao integrar novas ferramentas, incluindo tecnologias de IA, é crucial garantir a segurança da sua base de código. Suas políticas internas não devem apenas especificar quais ferramentas são aprovadas para uso, mas também descrever quaisquer limitações ao seu uso. A Philips obteve sucesso com o GitHub Copilot ao conceder amplo acesso aos seus desenvolvedores, ao mesmo tempo em que enfatiza a responsabilidade subjacente:
Enfatizamos a importância de os desenvolvedores assumirem total responsabilidade pela implementação das sugestões. O código proposto deve atender aos mesmos requisitos rigorosos de qualidade do código escrito por você. Entender o código é um pré-requisito fundamental para garantir a mais alta qualidade e segurança possíveis dos nossos produtos de software.
Acelerar a produtividade através de governança e de política
A governança e as políticas eficazes em sua organização devem se concentrar em direcionar a energia de sua equipe, bem como em estabelecer limites. Um modelo de governança interna bem projetado consiste em fornecer uma direção clara para os desenvolvedores e alinhar seus esforços com os objetivos da organização. Não é apenas um conjunto de regras para uso da IA, é um guia para atingir seus objetivos de negócios.
Criar uma estrutura de política
Em termos de aplicação prática, isso significa implementar uma estratégia de governança com uma estrutura de política abrangente que englobe vários aspectos críticos, tais como:
Propósito: estabelecer o objetivo central da política, comunicando a importância de manter a segurança dos dados e a integridade do código ao usar ferramentas de IA. Isso condiciona o uso responsável e seguro da IA nas práticas de codificação.
Escopo: esclarecer a aplicabilidade da política. Garanta que todo o pessoal relevante, especialmente os desenvolvedores que utilizam ferramentas de IA generativa, esteja ciente das suas responsabilidades e dos limites da política.
Uso responsável: enfatizar a importância de usar ferramentas de IA como uma ajuda e não como um substituto da experiência humana. Lembre os desenvolvedores que eles são responsáveis pelo código gerado com assistência da IA e que devem aderir aos padrões e práticas de codificação existentes.
Propriedade intelectual: garantir a conformidade com as leis de propriedade intelectual e políticas internas. Isso inclui o uso de recursos em ferramentas de IA que impedem a cópia ou replicação de código público.
Validação de saída: exige um exame minucioso do código gerado por IA. Os desenvolvedores devem garantir que esse código esteja de acordo com os padrões da empresa, não apresenta riscos de segurança e esteja alinhado aos requisitos do projeto, assim como qualquer código escrito manualmente.
Monitoramento de desempenho: exigir avaliação contínua da eficácia das ferramentas de IA. Os desenvolvedores precisam acompanhar a qualidade do código produzido e o impacto da ferramenta na produtividade e resolver quaisquer problemas ou limitações que surjam.
Documentação: ressaltar a necessidade de manutenção de registros detalhados relativos à utilização de ferramentas de IA. Essa documentação deve abranger o usuário, a finalidade e a forma de uso, para ajudar a monitorar a eficácia e garantir a conformidade com a política.
Treinamento: destacar a necessidade de treinamento adequado para desenvolvedores que utilizam ferramentas de IA. Isso inclui compreender as capacidades, as limitações e os princípios delineados na política das ferramentas, garantindo o uso competente e responsável.
Revisão da política: reforçar a importância de manter a política atual e eficaz. São necessárias revisões e atualizações regulares para se adaptar às tecnologias e práticas de codificação em evolução, mantendo a relevância das políticas. Também é importante comunicar isso aos seus funcionários.
Para obter mais informações, consulte nosso Exemplo de política para uso de ferramentas de IA por desenvolvedores internos.
Garantir o uso de práticas recomendadas de ferramentas de IA
O treinamento deve ser adaptado às necessidades comerciais. Os desenvolvedores provavelmente terão dúvidas sobre como seu código e dados são tratados, e esses tópicos devem ser abordados. Contudo, o treinamento pode ir além do básico sobre o que fazer e o que não fazer para inspirar e orientar ativamente os desenvolvedores na realização de objetivos de negócios específicos.
Por exemplo, os desenvolvedores podem ser orientados a começar a usar o GitHub Copilot para diminuir os ciclos de feedback do desenvolvimento orientado a testes (TDD) de sua organização. Esse treinamento poderia não apenas melhorar a capacidade dos desenvolvedores' de escrever testes eficazes, mas também familiarizá-los com as práticas recomendadas em TDD. Essa abordagem tem o duplo efeito de melhorar a métrica central de preocupação e, ao mesmo tempo, aumentar a compreensão da sua equipe sobre as práticas recomendadas, o que pode impactar a durabilidade dessas melhorias.
A governança e as políticas estabelecem as bases para promover a adoção de ferramentas de IA. Em nosso próximo guia, exploraremos como desenvolver essa base para otimizar o processo de integração do GitHub Copilot.
A seguir: Dicas para uma implementação de sucesso do GitHub CopilotComece a usar o GitHub Copilot