APRENDER

Sim, podes e deves usar as ferramentas Inteligência Artificial na escola. A IA é hoje uma ferramenta imprescindível e cada vez mais presente na sociedade, no trabalho e na aprendizagem. Saber utilizá-la de forma crítica e responsável faz parte das competências que estás a desenvolver.
No entanto, o uso da IA deve respeitar sempre as diretrizes da escola, caso existam, bem como as orientações específicas do professor para cada atividade ou trabalho. Em algumas situações, a IA pode ser permitida como apoio à aprendizagem (por exemplo, para esclarecer conceitos, planear ideias ou rever textos), enquanto noutras pode não ser autorizada ou ter limites bem definidos. Por isso, antes de a utilizares, deves confirmar quais são os usos permitidos e garantir que o teu trabalho reflete o teu próprio esforço, aprendizagem e responsabilidade académica, e que, sobretudo, manténs a agência humana.
A agência humana é o princípio de que o ser humano deve manter o controlo final sobre as decisões e os processos intelectuais. No contexto da IA, isto significa que deves ser tu o “piloto”, e a IA, o “copiloto”. A tecnologia deve ter um caráter consultivo e colaborativo, nunca substituindo a tua responsabilidade criativa. Todos os resultados produzidos por sistemas inteligentes devem ser avaliados por ti, que és, em última análise, o responsável pela originalidade e qualidade do trabalho final.
Poderás seguir estes princípios básicos:
- Declara o uso: indica explicitamente que ferramentas utilizastee para que fins.
- Mantém a autoria: garante que a estrutura lógica, os argumentos principais e a voz do texto são teus.
- Verifica factos: não assumas que a resposta da IA é correta, utilizando fontes primárias para validar as afirmações.
Transparência e a nova citação de fontes
A evolução da escrita académica exige agora que aprendas a citar não apenas livros e artigos, mas também as interações com sistemas de IA. Organizações como a American Psychological Association (APA) e a Modern Language Association (MLA) atualizaram as suas diretrizes para incluir o uso de LLMs.
Modelos de referenciação e citação de IA generativa
| Estilo | Componentes da citação | Exemplo prático |
| APA | Companhia. (Ano). Modelo (Versão) [Chat]. URL | OpenAI. (2025). ChatGPT (GPT-4o) [Chat]. https://chatgpt.com |
| MLA | “Prompt” prompt. Ferramenta, versão, Data, URL. | “Análise do poema ‘Mar Português” prompt. Gemini, v. 1.5, 12 Jan. 2025, https://gemini.google.com |
| Declaração de uso | Descrição qualitativa do apoio recebido pela IA. | “Este trabalho utilizou o Claude 3 para a estruturação do índice e revisão gramatical do terceiro capítulo.” |
A transparência protege-te de acusações de má conduta e demonstra uma competência avançada na gestão de ferramentas tecnológicas, uma habilidade altamente valorizada tanto no ensino superior como no mercado de trabalho.
Combate as alucinações e os vieses
A maior ameaça ao uso autónomo da IA é a confiança cega. Os modelos de linguagem não têm acesso à “verdade”; eles geram respostas baseadas em padrões estatísticos de associação de palavras. Isto leva ao fenómeno das “alucinações de IA”, onde o sistema produz informações que parecem plausíveis e confiáveis, mas que são totalmente falsas ou sem base factual.
Por exemplo, um modelo pode inventar uma biografia de um autor menos conhecido, criar citações de leis inexistentes ou dar resultados matemáticos errados devido a falhas na lógica de raciocínio. Aceitares estas respostas sem verificação é um risco pedagógico grave. A tabela seguinte mostra tipos de falhas comuns na IA generativa e as estratégias para as poderes mitigar.
| Tipo de erro | Manifestação prática | Estratégia de mitigação |
| Erro factual | Invenção de datas, nomes ou eventos históricos. | Confrontar com manuais escolares ou enciclopédias. |
| Alucinação de referência | Invenção de links ou títulos de livros que não existem. | Procurar o título ou autor em bases de dados como o Google Scholar. Verificar se o link fornecido pela IA funciona. |
| Viés de estereótipo | Respostas que favorecem certas culturas ou géneros. | Pedir à IA para apresentar múltiplas perspetivas culturais. |
| Lógica circular | Argumentos que se repetem sem chegar a uma conclusão. | Decompor a pergunta em passos lógicos menores. |
Usares o teu pensamento crítico é a ferramenta que te permite “desmontar” a resposta da IA. Em vez de perguntares “O que é isto?”, deves perguntar “Como é que a IA chegou a esta conclusão e quais são as evidências que a suportam?”.
A técnica da “sanduíche de IA” para investigação
Para garantires que a tua capacidade crítica não é atrofiada, podes adotar o enquadramento da “Sanduíche de IA”:
- Camada humana (Base): defines a tua própria pergunta de investigação ou tese original sem auxílio da tecnologia.
- Camada de IA (Recheio): utilizas a IA para reunir informações, explorar diferentes ângulos, resumir artigos densos ou gerar ideias para a estrutura do trabalho ou tarefa.
- Camada humana (Topo): avalias criticamente o que a IA produziu, verificas os factos, reescreves o conteúdo com a tua própria voz e integra-lo no teu conhecimento prévio.
Recomendações finais :
- Trata a IA como um estagiário brilhante mas trapalhão: ela faz o trabalho pesado rapidamente, mas precisa de ser supervisionada em cada detalhe.
- Não uses a IA para fugir ao pensamento: usa-a para chegar mais longe no pensamento. Se a IA escreve o teu ensaio, perdes a oportunidade de treinar o teu cérebro para estruturar ideias.
- Sê transparente com os professores: o diálogo aberto sobre o uso da IA gera confiança e permite que o professor oriente a utilização para o que é pedagogicamente mais útil.
- Pratica a “Recordação Ativa”: depois de usares a IA para aprender um conceito, fecha o computador e tenta explicá-lo por tuas palavras a um colega. Só assim o conhecimento passa da máquina para a tua memória de longo prazo.



