Paulo Brazão em trabalho dialógico com ChatGPT 5
Resumo
A monitorização de desenvolvimentos recentes em IA Educacional (IAEd) com ênfase dialógica e interacionista revela: (i) a consolidação de modos de estudo dialógicos em plataformas generalistas — p.ex., o Study Mode do ChatGPT — que deslocam o foco de "respostas prontas" para orientação passo-a-passo, com potencial para metacognição e raciocínio (lançado a 29/07 e em adoção crescente nas últimas semanas); (ii) métricas e benchmarks para avaliar capacidade de orientação pedagógica dos LLMs (perceção do estado cognitivo, orquestração de estratégias e elicitação de reflexão), sublinhando limitações atuais de adaptação; (iii) evidência empírica de um Tutor Socrático que, em estudo com 65 futuros professores na Alemanha, aumenta o apoio percebido a pensamento crítico e independente; e (iv) pressão regulatória/ética com o AI Act (UE) a tornar aplicáveis obrigações para GPAI a 02/08/2025 e a proibir reconhecimento emocional em educação, enquanto a UNESCO reforça o papel central do professor e atualiza a orientação setorial (27–29/08). Em Portugal, destaca-se o Projeto ELABORA (Brazão & Tinoca) como agenda pioneira sobre processos dialógicos de construção de conhecimento mediados por IA generativa em ensino superior, incluindo produções científicas, relatórios e software de apoio à investigação etnográfica.
Introdução
A IA dialógica em educação emerge da tradição socioconstrutivista e dialógica: a aprendizagem como coconstrução de significado por meio de interações orientadas, com scaffolding, autorregulação e agência epistémica. Em 2025, observa-se uma inflexão: LLMs com "modos de estudo" assumem explicitamente papéis pedagógicos (diagnosticar objetivos/nível, perguntar, dar pistas, promover explicação), aproximando-se de ITS clássicos, mas com maior plasticidade discursiva — e risco de variância na qualidade da orientação. A atualização de quadros éticos e de competência docente (UNESCO) e a aplicação faseada do AI Act criam fronteiras normativas (transparência, literacia em IA, proibições específicas) que condicionam positivamente a adoção educacional.
Objetivos específicos. (a) Mapear avanços dialógicos na última semana (ou mais recentes); (b) caracterizar padrões regionais; (c) avaliar qualidade/ética; (d) propor agenda de investigação e recomendações.
Estratégia de pesquisa
Revisão rápida sistemática (23–30/08/2025) com buscas em arXiv, páginas institucionais(UNESCO; Comissão Europeia), media e edtech. Termos (combinações booleanas): dialogic learning AND AI; conversational AI education; human-AI interaction pedagogy; Socratic AI methods; AI tutoring systems; teacher-AI collaboration.
Inclusão. Relevância direta para IA dialógica; peer-review ou preprint credível; credibilidade institucional; novidade/contributo. Exclusão. Conteúdo promocional; publicações sem validação; duplicações.
Procedimento. Triagem por título/resumo; extração (tipo de inovação, método/evidência, implicações pedagógicas/éticas); síntese por região e temas transversais. Limitações. Janela temporal curta; predominância de preprints; assimetria regional/linguística. (Fontes-âncora: Study Mode e cobertura; GuideEval; estudo Socrático; AI Act; UNESCO.)
Resultados por região geográfica
América do Norte
Produto/adoção. O Study Mode (OpenAI) estabelece orientação passo-a-passo com ênfase em raciocínio e explicação; cobertura especializada debate potenciais de "aprendizagem mais profunda" e riscos de atalho. Sondagens recentes nos EUA indicam crescimento de adoção por docentes/estudantes; reportagens desta semana continuam a deslocar o discurso de "batota" para uso pedagógico responsável.
Investigação. GuideEval propõe avaliação da orientação pedagógica em três fases (perceber-orquestrar-elicitar), revelando limitações na adaptação; outros frameworks de avaliação de tutores LLM (p.ex., Dean of LLM Tutors) avançam grelhas de feedback e datasets anotados.
Europa
Evidência empírica recente. Estudo com 65 estudantes de formação de professores (Alemanha) mostra que um Tutor Socrático suportou pensamento crítico/independente significativamente melhor do que um chatbot não instruído — reforçando o valor de dialogicidade estruturada.
Regulação. O AI Act entrou em vigor em 01/08/2024; proibições e literacia em IA aplicam-se desde 02/02/2025; regras para GPAI tornaram-se aplicáveis em 02/08/2025; proibição de reconhecimento emocional em educaçãomantém-se como salvaguarda crítica.
Ásia-Pacífico
Adoção e programas. Cresce a utilização estudantil de Study Mode e a integração de IA na aprendizagem. Noticiou-se esta semana programa de licenças educativas em larga escala na Índia, com parcerias académicas para capacitação — sinal de escala e literacia como eixos de política educacional.
América Latina
Capacitação e políticas (mais recentes disponíveis). Adoção de inquéritos regionais (UNESCO-IESALC) e iniciativas públicas no Brasil (EJA, cursos e hackathons) mostram governança prática e sensibilização para uso responsável, com potencial para tutoria dialógica bilingue e investigação em contextos de EAD/EJA. (Fontes de julho-agosto 2025 apresentadas em monitorizações recentes; mantêm relevância nesta semana.)
Oceânia
Debate público e ensaios (contínuos). A Austrália prossegue pilotos com chatbots educacionais e políticas de uso responsável (últimos meses), mantendo nesta semana discussão sobre equidade, integridade académica e papel do professor como mediador. (Cobertura recente.)
África
UNESCO (atualizações 27–29/08). Ênfase no papel insubstituível dos professores; roadmaps e projetos com foco em literacia, infraestrutura e inclusão permanecem prioridade (alguns fora da janela de 7 dias, mas com atualizações relevantes nesta semana).
Destaque em Portugal - Projeto ELABORA (Brazão & Tinoca)
Enquadramento e objetivos. O ELABORA visa caracterizar processos dialógicos de construção de conhecimentoem contextos formais de ensino superior mediados por IA generativa, com metodologia etnográfica (diário de bordo, entrevista) e análise de questionamento crítico e andaimes conversacionais em interações estudantes–IA.
Produções científicas e materiais associados (seleção).
Preprint SciELO (2024/2025, versão pública): evolução do questionamento crítico em relações dialógicas estudantes–IA.
Relatório de Pós-Doutoramento (2025): síntese do estudo com foco em processos dialógicos e implicações curriculares.
Comunicações públicas (2023): apresentações e vídeo de divulgação científica do projeto.
Software de apoio (Elabora III, 2023): ferramenta para investigação etnográfica no âmbito do projeto (co-assinado por Brazão & Tinoca).
Registos curriculares (CienciaVitae): orientação e linha de investigação "Processos dialógicos… com IA" (Tinoca como orientador).
Artigo em Frontiers in Education (em prelo, 2025): Artificial intelligence and critical thinking: a case study with educational chatbots (Brazão & Tinoca).
Contributos. O ELABORA fornece evidência qualitativa e instrumentalização metodológica (software, diários, entrevistas) para avaliar a qualidade do diálogo humano–IA (perguntas, pistas, metacognição), ancorando-se em tradição dialógica e socioconstrutivista, e oferecendo recomendações curriculares (ex.: integração de atividades de co-autorreflexão e explicação passo-a-passo mediadas por IA).
Análise transversal
Padrões globais. (1) Socratização de plataformas: Study Mode institucionaliza perguntas, pistas e explicações em vez de respostas diretas; (2) Medição da orientação: benchmarks e rubrics (p.ex., GuideEval) deslocam o foco de "acerto" para qualidade processual; (3) Evidência incipiente: estudos controlados (Alemanha) sugerem ganhos em pensamento crítico, carecendo de replicações; (4) Ética/regulação: AI Act e UNESCO reforçam transparência, literacia e proibições de alto risco; (5) Assimetria regional: programas de escala (Índia) vs. pilotos localizados (UE/APAC).
Convergências/divergências. Convergência na centralidade do professor e na aprendizagem guiada; divergências em infraestrutura, regulação e idiomas, com implicações de equidade.
Implicações teóricas. A IA dialógica materializa a mediação cultural (Vygotsky) e a pluridirecionalidade do diálogo (Bakhtin), mas requer orquestração explícita (objetivos, evidências, scaffolding).
Implicações práticas. Para garantir valor pedagógico, sistemas devem perceber o estado do aluno, orquestrarestratégias (pistas, exemplos graduados) e elicitar explicações/justificações — com supervisão docente, RAG para rigor factual e transparência sobre limites.
Discussão crítica
Qualidade da evidência. A semana traz sobretudo preprints e cobertura especializada; o estudo Socrático (Alemanha) é promissor mas contexto-dependente. Necessita-se de ensaios controlados por disciplina/nível e análises interseccionais (género/idioma/ASE).
Vieses/limitações. Benchmarks mostram dificuldades de adaptação e generalização do scaffolding; adoções relatadas podem confundir uso operacional com uso pedagógico profundo. A janela de 7 dias limita o corpus; incluímos "mais recentes" quando a atualidade factual o exigia.
Ética e equidade. O AI Act estabelece linhas vermelhas (p.ex., reconhecimento emocional em escolas) e obrigações de transparência (GPAI desde 02/08/2025). A UNESCO reforça o papel do professor e competências para adoção responsável.
Conclusões e recomendações
Síntese. Converge uma viragem sistémica: de "responder" para "orientar dialogicamente"; da medição de acertos para qualidade processual; da inovação solta para adoção com compliance. Em Portugal, o ELABORA oferece enquadramento empírico e ferramentas de investigação para avaliar e melhorar o diálogo humano–IA no ensino superior.
Para investigadores.
Adotar métricas de orientação (perceção–orquestração–elicitação) e análise discursiva;
Co-desenhar com docentes protocolos socráticos (pistas graduadas, rubricas de feedback);
Replicar o estudo Socrático por disciplinas/níveis;
Produzir corpora PT-PT e evaluation suites multilingues.
Para decisores.
Formação docente em IA dialógica e literacia crítica;
Auditorias pedagógicas a sistemas com base no AI Act;
Programas de equidade linguística/cultural (Portugal-Lusofonias);
Financiamento de pilotos controlados (ensino básico/secundário), com métricas de pensamento crítico e metacognição.
Agenda futura. Ensaios multicêntricos; dashboards de qualidade dialógica; modelos de decisão de intervenção(quando perguntar vs. informar); instrumentos de explicabilidade pedagógica ("porque é que te faço esta pergunta?").
Qualidade científica
Transparência: janela temporal e fontes explicitadas;
Triangulação: preprints + institucionais + edtech news;
Análise crítica: diferenciação preprint vs. peer-review;
Reprodutibilidade: termos de busca e critérios descritos.
Referências
Desenvolvimentos globais / política e ética
European Commission. (2025, August 1). AI Act – Regulatory framework on Artificial Intelligence (official timeline). https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
UNESCO. (2025, August 27). AI and the future of education: Disruptions, dilemmas and directions (article, last update Aug 27, 2025). https://www.unesco.org/en/articles/ai-and-future-education-disruptions-dilemmas-and-directions
UNESCO. (2025, August 29). Teachers cannot be coded (feature, last update Aug 29, 2025). https://www.unesco.org/en/articles/teachers-cannot-be-coded
Produtos/adoção e cobertura
OpenAI. (2025, July 29). Introducing Study Mode in ChatGPT. https://openai.com/index/chatgpt-study-mode/
Palmer, K. (2025, August 7). Understanding value of learning fuels ChatGPT's Study Mode. Inside Higher Ed. https://www.insidehighered.com/news/tech-innovation/artificial-intelligence/2025/08/07/understanding-value-learning-fuels-chatgpts
Janfaza, R. (2025, August 28). The AI cheating panic is missing the point. The Washington Post. https://www.washingtonpost.com/opinions/2025/08/28/gen-z-ai-cheating-panic/
Vox. (2025, August 28). ChatGPT isn't just for cheating anymore. https://www.vox.com/even-better/459534/chatgpt-cheating-schools-ai-education
The Economic Times. (2025, August 26). Half of ChatGPT users in India below 24, studying on app. https://economictimes.indiatimes.com/tech/artificial-intelligence/half-of-chatgpt-users-in-india-below-24-studying-on-app-openai-official/articleshow/123511864.cms
Times of India. (2025, August 27). OpenAI announces Learning Accelerator program in India: 5 lakh ChatGPT licences… https://timesofindia.indiatimes.com/technology/tech-news/openai-announces-learning-accelerator-program-in-india-5-lakh-chatgpt-licences-for-indian-students-and-educators/articleshow/123542877.cms
Investigação/avaliação dialógica
Liu, Y., Li, C., Zhang, T., Wang, M., Zhu, Q., Li, J., & Huang, H. (2025). Discerning minds or generic tutors? Evaluating instructional guidance capabilities in Socratic LLMs (arXiv:2508.06583). https://arxiv.org/abs/2508.06583
Degen, P.-B., & Asanov, I. (2025). Beyond automation: Socratic AI, epistemic agency, and the implications of the emergence of orchestrated multi-agent learning architectures (arXiv:2508.05116). https://arxiv.org/abs/2508.05116
Portugal — Projeto ELABORA (Brazão & Tinoca)
Brazão, J. P. G., & Tinoca, L. A. (2023). Projeto ELABORA: Processos dialógicos de construção do conhecimento em contexto mediado por interfaces com IA (página do projeto). https://www.jpaulobrazao.com/projetos-cursos-e-trabalhos-1/projeto-elabora-processos-dial%C3%93gicos-de-constru%C3%87%C3%83o-do-conhecimento-em-contexto-mediado-por-interfaces-com-intelig%C3%8Ancia-artificial
Brazão, J. P. G., & Tinoca, L. A. (2024). A evolução do questionamento crítico nos processos dialógicos com IA: Uma pesquisa em contexto universitário (preprint SciELO). https://preprints.scielo.org/index.php/scielo/preprint/view/9566 (PDF: https://preprints.scielo.org/index.php/scielo/preprint/download/9566/17797/18424)
Brazão, J. P. G. (2025, March 5). Relatório de Pós-Doutoramento em Educação — Projeto ELABORA (ResearchGate). https://www.researchgate.net/publication/382851021_RELATORIO_DE_POS-DOUTORAMENTO_EM_EDUCACAO_PROJETO_ELABORA_PROCESSOS_DIALOGICOS_DE_CONSTRUCAO_DO_CONHECIMENTO_EM_CONTEXTO_MEDIADO_POR_INTERFACES_COM_INTELIGENCIA_ARTIFICIAL
Brazão, J. P. G., & Tinoca, L. A. (2023, October 10). Projeto ELABORA: Processos dialógicos… (vídeo de apresentação). https://www.youtube.com/watch?v=0HJQPWsV4vI
Brazão, J. P. G., & Tinoca, L. A. (2023). Elabora III — Software de apoio à investigação etnográfica do projeto ELABORA (descrição). https://www.jpaulobrazao.com/curr%C3%8Dculo/identificadores-de-autor-c%C3%B3pia-de
Brazão, J. P. G., & Tinoca, L. A. (2025). Artificial intelligence and critical thinking: A case study with educational chatbots. Frontiers in Education, in press. DOI: https://doi.org/10.3389/feduc.2025.1630493 (registo do autor). https://www.jpaulobrazao.com/
Tinoca, L. A. (CienciaVitae). (2023–atual). Orientação do projeto "Processos dialógicos…" (registo). https://www.cienciavitae.pt/2217-03A8-AAB1
Sem comentários:
Enviar um comentário