Pesquisadores da Giskard, empresa parisiense especializada em testes de inteligência artificial (IA), descobriram que a solicitação de respostas curtas a chatbots pode elevar as alucinações, fenômeno em que modelos de IA geram informações erradas ou inventadas.
De acordo com o estudo, publicado no blog da empresa, orientações que pedem respostas breves,