Como a IA Generativa e educadores podem trabalhar em conjunto para melhores experiências de aprendizado.
Proporcionar vivências que agreguem conhecimento não apenas no momento do aprendizado, mas se transformem em um legado ao longo da vida dos seus alunos, é o desejo, e porque não dizer sonho (?), de milhões de educadores mundo afora. Desde que começamos a refletir e aplicar as potencialidades da Inteligência Artificial (IA) generativa, aquela que “aprende” a partir de grandes bases de dados, nos surpreendemos (e até nos assustamos) diariamente com os caminhos pelos quais ela pode nos levar. Não é de hoje, e nem foi inaugurado pelo popular ChatGPT, que a inovação e a tecnologia estão tornando o aprendizado em algo ainda mais criativo, fácil e engajador, permitindo que cada aluno “seja ele mesmo” ao longo de sua jornada.
No universo da educação, a IA generativa pode criar materiais de estudos personalizados e adaptar o conteúdo educacional com base nas necessidades individuais dos alunos e assim promover experiências de aprendizagem únicas. Ela também atua ao lado do professor, auxilia na geração de recursos educacionais —como questionários, avaliações e tutoriais interativos, e cumpre o papel de facilitadora perante os educadores. De acordo com um estudo do Sesi e do Senai, até 2030, quatro ferramentas que envolvem inteligência artificial estarão difundidas em até 50% das escolas públicas e privadas do Brasil ― e uma delas, a computação em nuvem, deve estar presente em até 70% das instituições de ensino.
Ademais, são facilmente criados, a partir da IA, ambientes virtuais de aprendizagem imersivos e interativos, capazes de aprimorar o envolvimento dos alunos e a retenção do conhecimento. Feedbacks personalizados, por exemplo, ajudam a traçar rotas e caminhos de aprendizado adaptáveis. Exemplos de aplicabilidade como esses provam que a tecnologia está apta a atuar também como mentora do aluno e estimulá-lo a ser protagonista em sua jornada por conhecimento.
Mas um pouco de cautela e pensamento crítico são necessários, especialmente quando se trata de educação. Sabemos que IA generativa levanta preocupações éticas em relação à criação e disseminação de conteúdo enganoso ou falso, além de imprecisos e incorretos. O próprio criador do ChatGPT, Sam Altman, está ciente de que o mundo pode receber uma inteligência artificial “potencialmente assustadora”. Por conta disso, ele crê haver uma necessidade de regulamentação das IAs, principalmente para coibir possíveis práticas criminosas.
E as questões práticas vão além. Hoje em dia já são desenvolvidas ferramentas de inteligência que atuam como uma espécie de tutores dos estudantes: trazem problemas reais para serem resolvidos no ecossistema estudantil e deixam o aprendizado mais dinâmico. Esses ´tutores´ também são avaliados e, ao receberem feedbacks, têm a tecnologia calibrada. No entanto, especialistas são unânimes em afirmar que tudo isso não ausenta a necessidade de interação humana. Testes prévios mostram que a IA ainda erra em problemas de Matemática por exemplo. E a provocação que fica é: os bots, por mais tecnológicos que sejam, não serão capazes de sinalizar como está determinado comportamento de um aluno — se está sobrecarregado, frustrado ou com problemas emocionais. É preciso ter parcimônia.
No universo do aprendizado, para a implementação da IA generativa, são necessários alguns passos: os estágios iniciais envolvem pesquisa e experimentação com diferentes técnicas, algoritmos e arquiteturas para encontrar abordagens adequadas a casos e usos específicos. É preciso definir processos rigorosos de teste e validação para garantir a qualidade, a confiabilidade e as implicações éticas. O monitoramento contínuo, a coleta de feedback e o refinamento são necessários para aprimorar o desempenho e mitigar quaisquer limitações ou vieses que possam vir a surgir. Como o próprio Altman diz, ‘ainda vamos ter seres humanos controlando o mundo (…). A IA nunca vai superar o ser humano’.
Em educação, as questões morais e éticas envolvem assuntos como plágio nos trabalhos escolares. Indo para o mundo da pesquisa científica, a própria revista Nature anunciou que não aceitará o ChatGPT como autor de um trabalho de pesquisa, mas permitirá o uso de ferramentas de Inteligência Artificial desde que essa informação apareça na metodologia. Ou seja, também precisaremos de artifícios cada vez mais aprimorados para evitar que tais funcionalidades sejam usadas de má-fé ou invadidas por hackers de forma criminosa, conforme o próprio receio de Altman, citado anteriormente.
Sabemos que gerar conteúdo de qualidade depende da disponibilidade dos dados, que são diversos e nem sempre 100% confiáveis. Há ainda muitos preconceitos e estereótipos permeando o conteúdo gerado pela IA, como colocar a culpa em informações tendenciosas, falta de contexto social, processos imperfeitos, entre outros. No entanto, o preconceito pode acontecer antes de os dados serem coletados, bem como em outros estágios do processo de deep learning. Compreender e interpretar as decisões tomadas por seus modelos generativos pode ser complexo, dificultando a transparência e a responsabilidade necessárias para a sua utilização. Além disso, sua implementação geralmente requer poder e recursos computacionais significativos, tornando-a desafiadora para organizações menores ou indivíduos com acesso limitado.
O que os agentes da tecnologia e da educação podem fazer para mitigar esses gaps? É possível nos inspirarmos na própria tecnologia e trabalharmos mais em conjunto? Como ampliar a nossa capacidade de interlocução para propor melhorias para as big techs desenvolvedoras das soluções de IA generativa? Vamos incluir nessa empreitada organizações pequenas e médias, com ou sem fins lucrativos, que também aplicam a IA em suas atividades? São provocações para quem têm transitado por esse universo aplicado ao processo de aprendizado.
Inegavelmente, estamos diante de uma revolução tecnológica com um futuro bastante promissor. Mas, quem sabe, precisamos do espírito crítico e colaborativo próprios de um professor da vida real para sobrepor os desafios da máquina aqui listados, e para que nada limite o desenvolvimento de experiências.
Por Diego Sette é Diretor de Tecnologia da Pearson Latam.
Comments