Perguntas mais frequentes sobre a IA Responsável para o Copilot no Viva Engage
O que é o Copilot no Viva Engage?
O Copilot in Engage fornece acesso à tecnologia de modelo de linguagem grande (LLM), que é um tipo de tecnologia que pode pedir para realizar tarefas baseadas em linguagem por si, de forma semelhante à forma como pode perguntar a uma pessoa.
O Copilot in Engage aprende com as suas comunidades, campanhas e interesses para fazer sugestões personalizadas do que poderá querer publicar e onde poderá beneficiar do envolvimento.
O que pode o Copilot no Viva Engage fazer?
O Copilot in Engage pode ajudá-lo:
-
Debater ideias sobre o que publicar, onde publicar e aponta para incluir no seu post.
-
Forneça um modelo, crie rascunhos de conteúdo para uma publicação e faça edições para melhorar a qualidade e o valor da escrita.
-
Forneça feedback e conselhos sobre a sua publicação.
Qual é a utilização pretendida do Copilot no Viva Engage?
O Copilot capacita-se com as informações e a colaboração de que precisa para tirar partido do Viva Engage para alcançar os seus objetivos profissionais.
Como foi avaliado o Copilot no Viva Engage? Que métricas são utilizadas para medir o desempenho?
Medimos o desempenho do Copilot em Engage, que é alimentado por GPT com estas métricas principais:
-
Precisão e Revocação: Estas métricas foram cruciais para avaliar a qualidade das sugestões. A precisão quantificou quantas das sugestões geradas pela IA eram relevantes, enquanto o resgate determinou quantas das sugestões relevantes foram obtidas.
-
Satisfação do Utilizador: Para avaliar a satisfação do utilizador, realizamos inquéritos aos utilizadores e recolhemos feedback para avaliar o nível de satisfação dos utilizadores com a assistência do sistema de IA.
-
Generalizabilidade: Para avaliar o quão bem os resultados do sistema se generalizaram em diferentes casos de utilização, testámos o Copilot em Envolver num conjunto diversificado de dados e tarefas. Isto implicava avaliar o desempenho do sistema numa série de cenários e domínios que não faziam parte dos dados de preparação iniciais.
Realizamos exercícios de agrupamento vermelho, convidando especialistas externos e técnicos de teste a encontrar vulnerabilidades ou preconceitos no sistema. Este processo ajudou-nos a identificar potenciais problemas e a melhorar a robustez do sistema. O nosso processo de avaliação está em curso, com atualizações e melhorias contínuas com base nos comentários dos utilizadores. Ao utilizarmos uma combinação de avaliação interna, feedback do utilizador e testes externos, pretendemos garantir a precisão, a equidade e a generalizabilidade da Copilot em Envolver com tecnologia GPT.
Quais são as limitações do Copilot no Viva Engage? Como podem os utilizadores minimizar o impacto destas limitações ao utilizar o sistema?
O modelo subjacente que alimenta o Copilot é preparado em dados anteriores a 2021. Não fornecerá respostas relevantes se uma pergunta exigir conhecimento do mundo pós-2021.
Que fatores operacionais e definições permitem uma utilização eficaz e responsável do Copilot no Viva Engage?
O Copilot in Engage foi concebido com um sistema de filtro robusto que bloqueia proativamente a linguagem ofensiva e impede a geração de sugestões em contextos confidenciais. Estamos a torná-lo melhor na deteção e remoção de conteúdos ofensivos gerados pela Copilot em Envolver e abordar saídas tendenciosas, discriminatórias ou abusivas.
Recomendamos que comunique quaisquer sugestões ofensivas que se deparem ao utilizar o Copilot in Engage.
Saiba mais
Introdução ao Copilot no Viva Engage
Colaborar com o Copilot em Participar em publicações e artigos