O objetivo desta política é definir diretrizes para o uso adequado das ferramentas de Inteligência Artificial (IA) na FxScouts. A política visa promover uma utilização eficiente e segura da IA, incluindo programas de IA generativa e o ChatGPT, minimizando os riscos associados.
Esta política se aplica a todos os colaboradores da FxScouts e rege o uso de todas as ferramentas de IA fornecidas pela empresa, incluindo, mas não se limitando a, programas de IA generativa e o ChatGPT.
Todos os colaboradores autorizados pela FxScouts devem concluir o treinamento obrigatório para utilizar as ferramentas de IA. Esse processo assegura que tenhamos pleno conhecimento das capacidades e limitações dessas ferramentas, utilizando-as de forma eficaz e responsável.
O uso não autorizado inclui, entre outros, a utilização por pessoal não autorizado, o uso além do escopo de trabalho ou a utilização das ferramentas de maneira incompatível com esta política ou outras diretrizes da empresa. Qualquer suspeita de uso não autorizado deve ser reportada imediatamente ao supervisor responsável ou à equipe de segurança de TI. O uso não autorizado pode levar a ações disciplinares, inclusive à rescisão de contrato.
A preservação da segurança dos dados da empresa, da propriedade intelectual e da confidencialidade é essencial em todas as atividades, incluindo o uso de ferramentas de IA. Como essas ferramentas aprendem e geram conteúdo com base nos dados fornecidos, é fundamental evitar a inserção ou o compartilhamento de informações sensíveis, como dados de clientes, contratos confidenciais, detalhes de parcerias, projetos, declarações de trabalho ou qualquer outra informação proprietária.
Devemos também respeitar os limites legais e éticos relacionados à privacidade de dados. Em caso de dúvida sobre a adequação de informações a serem usadas com a ferramenta de IA, é recomendável consultar o departamento jurídico. Violações das diretrizes de segurança e confidencialidade de dados podem resultar em medidas disciplinares.
As ferramentas de IA não são soluções autônomas; fazem parte de um conjunto mais amplo de recursos para nos auxiliar em nossas funções. Devem ser utilizadas para complementar, e não substituir, métodos tradicionais de resolução de problemas e tomada de decisões.
O resultado das ferramentas de IA deve sempre ser complementado com lógica de negócios. Por exemplo, se uma ferramenta de IA gerar uma sugestão ou plano, os usuários devem avaliar criticamente a sugestão com base em seu conhecimento do modelo de negócios da empresa, estratégia e condições de mercado.
Além disso, a colaboração com colegas é incentivada para obter diferentes perspectivas, verificar os resultados das ferramentas de IA e reduzir o risco de erros.
Devemos também validar adequadamente os resultados das ferramentas de IA. Isso pode envolver a verificação cruzada das informações com outras fontes confiáveis, testes rigorosos, quando viável, ou a consulta de especialistas.
Ao usar ferramentas de IA, devemos estar sempre atentos aos riscos inerentes a essas tecnologias. Esses riscos podem incluir potenciais imprecisões ou interpretações equivocadas em conteúdo gerado pela IA devido à falta de contexto, ambiguidades legais em relação à propriedade de conteúdo e possíveis violações de privacidade de dados. Manter uma postura crítica em relação aos resultados da IA é fundamental.
Para gerenciar esses riscos de maneira eficaz, a gerência deve integrar avaliações de risco específicas de IA aos nossos procedimentos mais amplos de gerenciamento de risco. Isso envolve avaliar e atualizar continuamente nossos protocolos para identificar, avaliar e mitigar riscos potenciais, considerando mudanças na tecnologia de IA, suas aplicações e o ambiente de risco externo.
Devemos exercer cautela ao utilizar plataformas de IA de terceiros devido a possíveis vulnerabilidades de segurança e vazamentos de dados. Antes de usar qualquer ferramenta de IA de terceiros, é necessário verificar a segurança da plataforma, revisando as certificações de segurança apropriadas, as políticas de manuseio e privacidade de dados do fornecedor e, se necessário, consultar nossa equipe de TI ou segurança cibernética.
Sempre que o uso de IA for proposto, as equipes de criação e curadoria de conteúdo, bem como as equipes de produto, devem primeiro considerar se o uso da IA é adequado para a tarefa em questão.
Qualquer uso de IA pela FxScouts na criação, apresentação ou distribuição de conteúdo deve ser consistente com as Diretrizes Editoriais, incluindo princípios de imparcialidade, precisão, justiça e privacidade.
Os resultados produzidos pela IA são determinados tanto pelo algoritmo quanto pelos dados de treinamento. Ambos podem introduzir vieses ou imprecisões nos resultados da IA.
A IA generativa opera prevendo respostas prováveis com base em sua programação e dados de treinamento, o que não significa que sempre fornecerá informações factualmente precisas. Devemos considerar a possibilidade de que o conteúdo gerado como preciso possa, na verdade, ser uma “alucinação” ou uma criação sem base real.
Da mesma forma, a IA generativa pode adaptar conteúdo de pesquisas na web ou de bancos de dados confiáveis e apresentá-lo como original.
A conformidade com esta política será monitorada regularmente pela FxScouts. Qualquer violação identificada será tratada e remediada de imediato.
Esta política será revisada e atualizada periodicamente para acomodar mudanças na tecnologia, nas necessidades do negócio ou nas exigências legais.
Descubra mais recursos que outros traders consideram úteis! Explore esses outros guias para aprimorar seus conhecimentos e habilidades em Forex. Se você está buscando os melhores corretoras, materiais educacionais ou algo mais específico, nós temos tudo o que você precisa: