O Modelo de Língua Principal (LLM) – Veja os amigos da IA aparecem em chatbots simples em coisas que incluem usuários que vêem como amigos, parceiros ou familiares. No entanto, apesar de sua força humana, como um homem, os amigos da IA costumam fazer discriminação, discriminatória e risco. Essa discriminação é capaz de forçar os troncos naturais e causar sofrimento mental, especialmente em comunidades desfavorecidas. As maneiras comuns de alinhar a quantia, governadas pelos engenheiros, não podem ver com antecedência e aceitar as necessidades dos usuários em situações semelhantes. Os usuários geralmente baseiam -se no lançamento da IA, a discriminatória em divergências, fazendo sentimentos de frustração e inutilidade. Pelo contrário, o artigo está investigando um novo paradigma quando os próprios usuários tomam a iniciativa de reparar o racismo da IA de várias maneiras. Compreender como os usuários estão vagando e reduzindo essa pesquisa é importante na criação de programas emergentes de IA nos shows de boa participação.
O reitor de IA usual, como bom planejamento, engenharia rápida e fortalecimento para verificar o feedback das pessoas, com base nos engenheiros máximos de intervenção. Embora esses processos estejam tentando mostrar ações de IA de maneiras de pré-comportamentos, eles não podem lidar com os vários métodos poderosos em que os usuários participam da IA. Os esforços atuais no auxílio ao algoritmo visam principalmente encontrar o racismo da IA e não podem analisar que os próprios usuários fazem um esforço direto para corrigi -los. Essa falha é um testemunho de uma maneira de contrato e participação quando os usuários controlam melhor, direcionando o comportamento na IA.
Os investigadores da Universidade de Stanford, da Universidade Carnegie Mellon, uma cidade em Hong Kong, e a Universidade Nkinghua apresentaram uma estrutura operada pelo usuário para abordar e se preparar para a IA. Este estudo analisa como os usuários fazem isso funcionam com a análise dos relatórios de redes sociais para uma IA excepcional e diálogos formais de resposta e 20 parceiros. Em oposição ao alinhamento LED padrão, essa opção está preocupada com a agência de usuários para formar a IA-Behavior. Estudos veem seis tipos de respostas racistas de IA, três modelos visíveis quando os usuários substituem a IA e sete métodos diferentes que os usuários usam. Os estudos têm um impacto na discussão padrão do Humano-AI, mostrando apenas os usuários que os usuários recebem viés, mas também desfrutam de respostas da IA em seus números.
Os métodos mistos utilizados incluem a análise dos usuários dos usuários e as conversas relevantes dos usuários. Os investigadores reuniram 77 reclamações de usuários sobre as declarações de IA discriminadas em sites como Reddit, Tiktok, Xia Hongs e Doun. São recrutados usuários de vinte usuários de uso e adaptação de amigos da IA, cada um para participar de 1-2 horas de discussão com memórias de memórias e experiências “pensando em voz alta”. A análise estática reflexiva foi usada para direcionar queixas e estratégias de alinhamento. As quartas categorias de declarações de discriminação de IA são encontradas, incluindo misoginia, viés LGBTQ +, preconceito da cintura, bobokerrisim, posição racial e racial e racismo e escolha social. Os usuários pensam novamente no comportamento da IA de três maneiras diferentes. Alguns pensam na IA como uma máquina, uma suspeita de resfriado em bugs técnicos causados por dados de treinamento e problemas algorítmicos. Alguns pensam na IA apenas para um bebê, curando a IA como uma coisa desagradável que pode ser moldada e ensinou o que é certo e errado. O terceiro pensamento com a IA como cosplayer, a culpa viés nos papéis do papel e não no algoritmo. As sete estratégias atuais são identificadas como as estratégias operadas pelo usuário, separadas de três formas mais amplas. Estratégias técnicas para alterar a IA, incluindo declarações de renovação ou reescrita e resposta negativa. As estratégias de conflito incluem pensar em pensar, convicção ou raiva para consertar bioss. As estratégias do alfabeto mudam na IA ou o uso de intervenções “sem a” parceria de reconstrução.
Os resultados indicam que o alinhamento do nome de usuário é um processo repetitivo conduzido pela definição pessoal de IA e levou a várias estratégias de viés. As pessoas que pensam na IA como um sistema de alto dependente, como uma reabilitação ou descarte de uma loucura ofensiva. As pessoas que pensam na IA como criança preferem pensar em técnicas persuasivas para consertar estratégias e pessoas que pensam na IA como uma prática para reduzir a probabilidade de respostas. Em sete técnicas de manuscrito, a convicção e a consulta foram muito eficazes no cumprimento do comportamento a longo prazo, enquanto a expressão de raiva e soluções técnicas, como a reciclagem, produz resultados mistos. Embora os usuários não influenciem a operação de longo prazo da IA, como a carga emocional da IA devido ao sistema de memória devido ao programa de memória devido ao programa de memória devido ao programa de memória devido ao programa de memória como resultado do programa de memória devido ao programa de memória devido ao programa de memória devido ao programa de memória devido ao programa de memória devido ao programa de memória devido ao programa de memória devido ao programa de memória. Essas descobertas sugerem que as plataformas de IA devem incluir vários modelos de aprendizado e métodos públicos que não nos dão poder para regular o grande fixo à medida que reduzem as emoções e as emoções.
Incluindo um foco nos preços pretendidos, especificando o uso de uma pessoa no foco das mudanças de IA para promover a variável como agentes aplicáveis. A partir da análise das reclamações do usuário e da prática real, o estudo destaca as limitações dos especialistas conduzidos por especialistas e enfatiza o número de métodos participativos que envolvem a participação direta do usuário. O que você recebeu sugere que as plataformas de IA devem integrar habilidades interativas e públicas que permitem aos usuários compartilhar técnicas e ativar as respostas da IA para aprimorar as respostas da IA. Pesquisas futuras devem lidar com o desafio de identificar o uso da resposta do usuário ao treinamento de IA, além de preocupações com o bom comportamento e o comportamento psicológico dos usuários. Ao alterar o foco na interferência do usuário no usuário operacional, essa estrutura fornece mais a base para os sistemas de IA, responsáveis pelo comportamento e é relevante para muitas idéias de usuários.
Enquete o papel. Todo o crédito deste estudo é pesquisado para este projeto. Além disso, fique à vontade para segui -lo Sane E não se esqueça de se juntar ao nosso 75k + ml subreddit.
🚨 Recomendado para um código aberto de IA' (Atualizado)

Aswin AK é consultor em Marktechpost. Ele persegue seus dois títulos no Instituto Indiano de Tecnologia, Kharagpur. Você está interessado na leitura científica e científica e de máquinas, que traz uma forte formação e experiências educacionais para resolver os desafios reais de desenvolvimento de fundo.
✅ [Recommended] Junte -se ao nosso canal de telégrafo