Vade Mecum Digital 2026De R$ 249,90 por 12x R$ 9,99 ou R$ 119,90 à vista
JurisHand AI Logo

Assistente em Administração - 2024


Página 1  •  Total 40 questões
110913Questão 1|Português|médio

LETRAMENTO ALGORÍTMICO: ENFRENTANDO A SOCIEDADE DA CAIXA PRETA

Mariana Ochs

         Nos últimos anos, avançamos bastante no entendimento da necessidade urgente de construir a autonomia dos jovens para que atuem nos ambientes informacionais da sociedade com segurança, ética e responsabilidade. Cada vez mais presente nas normas educacionais, na legislação e em diversos esforços da sociedade civil, a educação midiática apresenta-se como forma mais eficaz e sustentável de lidarmos com desinformação, boatos, discursos de ódio, propaganda e outros fenômenos que podem violar direitos e até desestabilizar a democracia.

       Mas, além dos conteúdos que circulam nas mídias, há, também, a parte mais opaca dos ecossistemas de comunicação: os algoritmos que, sujeitos a lógicas e interesses comerciais, personalizam o que vemos a ponto de nos expor a recortes seletivos da realidade, direcionando comportamentos, moldando nossas opiniões de maneira sutil e, por vezes, prejudicial. Esses algoritmos muitas vezes priorizam e reforçam engajamento com conteúdo enviesados, ofensivos ou violentos, podendo, inclusive, empurrar determinados indivíduos mais suscetíveis para ambientes  — e ações —  extremistas.

       Com os ambientes digitais mediando cada vez mais a nossa visão de mundo, enfrentar esses desafios exige olharmos não só para as habilidades de acessar e avaliar mensagens mas também, e cada vez mais, educar os jovens para perceber o funcionamento e os efeitos do próprio ambiente tecnológico. Em tempos de inteligência artificial, em que perguntas humanas podem encontrar respostas incorretas ou enviesadas criadas por sistemas preditivos, a computação precisa urgentemente entrar na pauta da educação midiática.

     No entanto, deve ser explorada de forma crítica, para entendermos os seus impactos sobre a justiça social e a democracia — e não apenas como ferramenta de trabalho em uma sociedade digital. A esse novo campo, que expande os limites da educação para a informação e oferece uma ponte entre a computação e a educação midiática, chamamos de "letramento algorítmico crítico".

       Hoje vivemos o crescimento exponencial da automação baseada em dados — tecnologias chamadas de algorítmicas ou de inteligência artificial capazes de fazer previsões e tomar decisões a partir dos dados que as alimentam. Esses sistemas operam de forma silenciosa e quase onipresente na vida contemporânea, impactando desde a escolha do vídeo que vai ser apresentado a uma criança no YouTube até o sistema que vai regular sua oferta de emprego ou de crédito quando crescer. É o que vem sendo chamado de "sociedade da caixa preta”. Segundo o pesquisador australiano Neil Selwin, nesse modelo, decisões automatizadas, geralmente invisíveis para o usuário comum, moldam seu acesso a direitos, serviços e informação.

        Na prática, a educação midiática pode desenvolver as habilidades necessárias para que os jovens sejam capazes de perceber, questionar e influenciar o comportamento dos sistemas tecnológicos. Crianças e jovens devem ser levados a explorar as formas de funcionamento dos algoritmos que moldam os resultados de nossas buscas na internet; podem questionar a ética dos sistemas de previsão e recomendação, ou ainda o design por trás das interfaces das redes sociais que utilizam, incluindo os chamados "dark patterns", que manipulam nossas decisões. Devem estar atentos a dinâmicas que promovem imagens inalcançáveis ou vulnerabilizam determinados grupos. Precisam perceber e questionar exclusões ou vieses refletidos na produção das IAs generativas. Sobretudo, devem entender os mecanismos de engajamento e de atenção que favorecem conteúdos que segregam, ofendem e desestabilizam as comunidades.

       Em suma, educar para as novas dinâmicas sociotécnicas implica reconhecer que as tecnologias não são neutras e incorporam valores daqueles que as criam ou programam; que seus efeitos são ecológicos, impactando e redefinindo relações sociais e econômicas; e que, agindo sobre sociedades desiguais, podem amplificar exponencialmente as injustiças sociais e a exclusão.

     Nesse novo ambiente, a educação midiática deve ir além de construir as habilidades de acessar, avaliar e criar mensagens, examinando autoria, propósito e contexto; deve abranger também uma compreensão mais profunda da dinâmica complexa, e muitas vezes oculta, entre os indivíduos, as mídias e os sistemas tecnológicos que moldam nosso mundo. Sem a capacidade de identificar e agir sobre esses sistemas, nos tornamos vulneráveis aos efeitos desestabilizadores da desinformação e da polarização, que ameaçam as instituições e a própria paz social, e ao potencial excludente das IAs. É preciso abrir a caixa preta.

Disponível em: https://www1.folha.uol.com.br/. Acesso em: 09 nov. 2023. (texto adaptado)

De forma global, o texto tematiza

  • A

    o letramento algorítmico como forma de aperfeiçoamento da educação midiática.

  • B

    o letramento algorítmico como um mecanismo de controle da educação midiática.

  • C

    a importância da educação midiática para o combate às informações falsas.

  • D

    a importância da educação midiática para o combate ao discurso de ódio.

110914Questão 2|Português|médio

LETRAMENTO ALGORÍTMICO: ENFRENTANDO A SOCIEDADE DA CAIXA PRETA

Mariana Ochs

         Nos últimos anos, avançamos bastante no entendimento da necessidade urgente de construir a autonomia dos jovens para que atuem nos ambientes informacionais da sociedade com segurança, ética e responsabilidade. Cada vez mais presente nas normas educacionais, na legislação e em diversos esforços da sociedade civil, a educação midiática apresenta-se como forma mais eficaz e sustentável de lidarmos com desinformação, boatos, discursos de ódio, propaganda e outros fenômenos que podem violar direitos e até desestabilizar a democracia.

       Mas, além dos conteúdos que circulam nas mídias, há, também, a parte mais opaca dos ecossistemas de comunicação: os algoritmos que, sujeitos a lógicas e interesses comerciais, personalizam o que vemos a ponto de nos expor a recortes seletivos da realidade, direcionando comportamentos, moldando nossas opiniões de maneira sutil e, por vezes, prejudicial. Esses algoritmos muitas vezes priorizam e reforçam engajamento com conteúdo enviesados, ofensivos ou violentos, podendo, inclusive, empurrar determinados indivíduos mais suscetíveis para ambientes  — e ações —  extremistas.

       Com os ambientes digitais mediando cada vez mais a nossa visão de mundo, enfrentar esses desafios exige olharmos não só para as habilidades de acessar e avaliar mensagens mas também, e cada vez mais, educar os jovens para perceber o funcionamento e os efeitos do próprio ambiente tecnológico. Em tempos de inteligência artificial, em que perguntas humanas podem encontrar respostas incorretas ou enviesadas criadas por sistemas preditivos, a computação precisa urgentemente entrar na pauta da educação midiática.

     No entanto, deve ser explorada de forma crítica, para entendermos os seus impactos sobre a justiça social e a democracia — e não apenas como ferramenta de trabalho em uma sociedade digital. A esse novo campo, que expande os limites da educação para a informação e oferece uma ponte entre a computação e a educação midiática, chamamos de "letramento algorítmico crítico".

       Hoje vivemos o crescimento exponencial da automação baseada em dados — tecnologias chamadas de algorítmicas ou de inteligência artificial capazes de fazer previsões e tomar decisões a partir dos dados que as alimentam. Esses sistemas operam de forma silenciosa e quase onipresente na vida contemporânea, impactando desde a escolha do vídeo que vai ser apresentado a uma criança no YouTube até o sistema que vai regular sua oferta de emprego ou de crédito quando crescer. É o que vem sendo chamado de "sociedade da caixa preta”. Segundo o pesquisador australiano Neil Selwin, nesse modelo, decisões automatizadas, geralmente invisíveis para o usuário comum, moldam seu acesso a direitos, serviços e informação.

        Na prática, a educação midiática pode desenvolver as habilidades necessárias para que os jovens sejam capazes de perceber, questionar e influenciar o comportamento dos sistemas tecnológicos. Crianças e jovens devem ser levados a explorar as formas de funcionamento dos algoritmos que moldam os resultados de nossas buscas na internet; podem questionar a ética dos sistemas de previsão e recomendação, ou ainda o design por trás das interfaces das redes sociais que utilizam, incluindo os chamados "dark patterns", que manipulam nossas decisões. Devem estar atentos a dinâmicas que promovem imagens inalcançáveis ou vulnerabilizam determinados grupos. Precisam perceber e questionar exclusões ou vieses refletidos na produção das IAs generativas. Sobretudo, devem entender os mecanismos de engajamento e de atenção que favorecem conteúdos que segregam, ofendem e desestabilizam as comunidades.

       Em suma, educar para as novas dinâmicas sociotécnicas implica reconhecer que as tecnologias não são neutras e incorporam valores daqueles que as criam ou programam; que seus efeitos são ecológicos, impactando e redefinindo relações sociais e econômicas; e que, agindo sobre sociedades desiguais, podem amplificar exponencialmente as injustiças sociais e a exclusão.

     Nesse novo ambiente, a educação midiática deve ir além de construir as habilidades de acessar, avaliar e criar mensagens, examinando autoria, propósito e contexto; deve abranger também uma compreensão mais profunda da dinâmica complexa, e muitas vezes oculta, entre os indivíduos, as mídias e os sistemas tecnológicos que moldam nosso mundo. Sem a capacidade de identificar e agir sobre esses sistemas, nos tornamos vulneráveis aos efeitos desestabilizadores da desinformação e da polarização, que ameaçam as instituições e a própria paz social, e ao potencial excludente das IAs. É preciso abrir a caixa preta.

Disponível em: https://www1.folha.uol.com.br/. Acesso em: 09 nov. 2023. (texto adaptado)

De acordo com o texto,

  • A

    a educação midiática é a única forma eficaz e sustentável de se lidar com fenômenos como o discurso de ódio e a desinformação.

  • B

    os algoritmos sempre contribuem para incentivar engajamentos direcionados a influenciar simpatizantes de atitudes extremistas.

  • C

    o reconhecimento da não neutralidade das tecnologias é um dos aspectos que contribuem para o letramento algorítmico.

  • D

    as tecnologias de inteligência artificial agem, na contemporaneidade, de maneira sempre discreta e totalmente onipresente.

110915Questão 3|Português|médio

LETRAMENTO ALGORÍTMICO: ENFRENTANDO A SOCIEDADE DA CAIXA PRETA

Mariana Ochs

         Nos últimos anos, avançamos bastante no entendimento da necessidade urgente de construir a autonomia dos jovens para que atuem nos ambientes informacionais da sociedade com segurança, ética e responsabilidade. Cada vez mais presente nas normas educacionais, na legislação e em diversos esforços da sociedade civil, a educação midiática apresenta-se como forma mais eficaz e sustentável de lidarmos com desinformação, boatos, discursos de ódio, propaganda e outros fenômenos que podem violar direitos e até desestabilizar a democracia.

       Mas, além dos conteúdos que circulam nas mídias, há, também, a parte mais opaca dos ecossistemas de comunicação: os algoritmos que, sujeitos a lógicas e interesses comerciais, personalizam o que vemos a ponto de nos expor a recortes seletivos da realidade, direcionando comportamentos, moldando nossas opiniões de maneira sutil e, por vezes, prejudicial. Esses algoritmos muitas vezes priorizam e reforçam engajamento com conteúdo enviesados, ofensivos ou violentos, podendo, inclusive, empurrar determinados indivíduos mais suscetíveis para ambientes  — e ações —  extremistas.

       Com os ambientes digitais mediando cada vez mais a nossa visão de mundo, enfrentar esses desafios exige olharmos não só para as habilidades de acessar e avaliar mensagens mas também, e cada vez mais, educar os jovens para perceber o funcionamento e os efeitos do próprio ambiente tecnológico. Em tempos de inteligência artificial, em que perguntas humanas podem encontrar respostas incorretas ou enviesadas criadas por sistemas preditivos, a computação precisa urgentemente entrar na pauta da educação midiática.

     No entanto, deve ser explorada de forma crítica, para entendermos os seus impactos sobre a justiça social e a democracia — e não apenas como ferramenta de trabalho em uma sociedade digital. A esse novo campo, que expande os limites da educação para a informação e oferece uma ponte entre a computação e a educação midiática, chamamos de "letramento algorítmico crítico".

       Hoje vivemos o crescimento exponencial da automação baseada em dados — tecnologias chamadas de algorítmicas ou de inteligência artificial capazes de fazer previsões e tomar decisões a partir dos dados que as alimentam. Esses sistemas operam de forma silenciosa e quase onipresente na vida contemporânea, impactando desde a escolha do vídeo que vai ser apresentado a uma criança no YouTube até o sistema que vai regular sua oferta de emprego ou de crédito quando crescer. É o que vem sendo chamado de "sociedade da caixa preta”. Segundo o pesquisador australiano Neil Selwin, nesse modelo, decisões automatizadas, geralmente invisíveis para o usuário comum, moldam seu acesso a direitos, serviços e informação.

        Na prática, a educação midiática pode desenvolver as habilidades necessárias para que os jovens sejam capazes de perceber, questionar e influenciar o comportamento dos sistemas tecnológicos. Crianças e jovens devem ser levados a explorar as formas de funcionamento dos algoritmos que moldam os resultados de nossas buscas na internet; podem questionar a ética dos sistemas de previsão e recomendação, ou ainda o design por trás das interfaces das redes sociais que utilizam, incluindo os chamados "dark patterns", que manipulam nossas decisões. Devem estar atentos a dinâmicas que promovem imagens inalcançáveis ou vulnerabilizam determinados grupos. Precisam perceber e questionar exclusões ou vieses refletidos na produção das IAs generativas. Sobretudo, devem entender os mecanismos de engajamento e de atenção que favorecem conteúdos que segregam, ofendem e desestabilizam as comunidades.

       Em suma, educar para as novas dinâmicas sociotécnicas implica reconhecer que as tecnologias não são neutras e incorporam valores daqueles que as criam ou programam; que seus efeitos são ecológicos, impactando e redefinindo relações sociais e econômicas; e que, agindo sobre sociedades desiguais, podem amplificar exponencialmente as injustiças sociais e a exclusão.

     Nesse novo ambiente, a educação midiática deve ir além de construir as habilidades de acessar, avaliar e criar mensagens, examinando autoria, propósito e contexto; deve abranger também uma compreensão mais profunda da dinâmica complexa, e muitas vezes oculta, entre os indivíduos, as mídias e os sistemas tecnológicos que moldam nosso mundo. Sem a capacidade de identificar e agir sobre esses sistemas, nos tornamos vulneráveis aos efeitos desestabilizadores da desinformação e da polarização, que ameaçam as instituições e a própria paz social, e ao potencial excludente das IAs. É preciso abrir a caixa preta.

Disponível em: https://www1.folha.uol.com.br/. Acesso em: 09 nov. 2023. (texto adaptado)

No sexto parágrafo, a partir do segundo período, o principal recurso coesivo de substituição empregado foi

  • A

    a retomada por elipse.

  • B

    a substituição por pronome obliquo.

  • C

    a substituição por advérbio.

  • D

    a retomada por repetição do nome.

110916Questão 4|Português|médio

LETRAMENTO ALGORÍTMICO: ENFRENTANDO A SOCIEDADE DA CAIXA PRETA

Mariana Ochs

         Nos últimos anos, avançamos bastante no entendimento da necessidade urgente de construir a autonomia dos jovens para que atuem nos ambientes informacionais da sociedade com segurança, ética e responsabilidade. Cada vez mais presente nas normas educacionais, na legislação e em diversos esforços da sociedade civil, a educação midiática apresenta-se como forma mais eficaz e sustentável de lidarmos com desinformação, boatos, discursos de ódio, propaganda e outros fenômenos que podem violar direitos e até desestabilizar a democracia.

       Mas, além dos conteúdos que circulam nas mídias, há, também, a parte mais opaca dos ecossistemas de comunicação: os algoritmos que, sujeitos a lógicas e interesses comerciais, personalizam o que vemos a ponto de nos expor a recortes seletivos da realidade, direcionando comportamentos, moldando nossas opiniões de maneira sutil e, por vezes, prejudicial. Esses algoritmos muitas vezes priorizam e reforçam engajamento com conteúdo enviesados, ofensivos ou violentos, podendo, inclusive, empurrar determinados indivíduos mais suscetíveis para ambientes  — e ações —  extremistas.

       Com os ambientes digitais mediando cada vez mais a nossa visão de mundo, enfrentar esses desafios exige olharmos não só para as habilidades de acessar e avaliar mensagens mas também, e cada vez mais, educar os jovens para perceber o funcionamento e os efeitos do próprio ambiente tecnológico. Em tempos de inteligência artificial, em que perguntas humanas podem encontrar respostas incorretas ou enviesadas criadas por sistemas preditivos, a computação precisa urgentemente entrar na pauta da educação midiática.

     No entanto, deve ser explorada de forma crítica, para entendermos os seus impactos sobre a justiça social e a democracia — e não apenas como ferramenta de trabalho em uma sociedade digital. A esse novo campo, que expande os limites da educação para a informação e oferece uma ponte entre a computação e a educação midiática, chamamos de "letramento algorítmico crítico".

       Hoje vivemos o crescimento exponencial da automação baseada em dados — tecnologias chamadas de algorítmicas ou de inteligência artificial capazes de fazer previsões e tomar decisões a partir dos dados que as alimentam. Esses sistemas operam de forma silenciosa e quase onipresente na vida contemporânea, impactando desde a escolha do vídeo que vai ser apresentado a uma criança no YouTube até o sistema que vai regular sua oferta de emprego ou de crédito quando crescer. É o que vem sendo chamado de "sociedade da caixa preta”. Segundo o pesquisador australiano Neil Selwin, nesse modelo, decisões automatizadas, geralmente invisíveis para o usuário comum, moldam seu acesso a direitos, serviços e informação.

        Na prática, a educação midiática pode desenvolver as habilidades necessárias para que os jovens sejam capazes de perceber, questionar e influenciar o comportamento dos sistemas tecnológicos. Crianças e jovens devem ser levados a explorar as formas de funcionamento dos algoritmos que moldam os resultados de nossas buscas na internet; podem questionar a ética dos sistemas de previsão e recomendação, ou ainda o design por trás das interfaces das redes sociais que utilizam, incluindo os chamados "dark patterns", que manipulam nossas decisões. Devem estar atentos a dinâmicas que promovem imagens inalcançáveis ou vulnerabilizam determinados grupos. Precisam perceber e questionar exclusões ou vieses refletidos na produção das IAs generativas. Sobretudo, devem entender os mecanismos de engajamento e de atenção que favorecem conteúdos que segregam, ofendem e desestabilizam as comunidades.

       Em suma, educar para as novas dinâmicas sociotécnicas implica reconhecer que as tecnologias não são neutras e incorporam valores daqueles que as criam ou programam; que seus efeitos são ecológicos, impactando e redefinindo relações sociais e econômicas; e que, agindo sobre sociedades desiguais, podem amplificar exponencialmente as injustiças sociais e a exclusão.

     Nesse novo ambiente, a educação midiática deve ir além de construir as habilidades de acessar, avaliar e criar mensagens, examinando autoria, propósito e contexto; deve abranger também uma compreensão mais profunda da dinâmica complexa, e muitas vezes oculta, entre os indivíduos, as mídias e os sistemas tecnológicos que moldam nosso mundo. Sem a capacidade de identificar e agir sobre esses sistemas, nos tornamos vulneráveis aos efeitos desestabilizadores da desinformação e da polarização, que ameaçam as instituições e a própria paz social, e ao potencial excludente das IAs. É preciso abrir a caixa preta.

Disponível em: https://www1.folha.uol.com.br/. Acesso em: 09 nov. 2023. (texto adaptado)

Sobre as palavras “até” e “inclusive”, empregadas, respectivamente, no primeiro e no segundo parágrafos, é correto afirmar:

  • A

    ambas são palavras que denotam inclusão e, nesse caso, revelam uma orientação argumentativa que indica o argumento mais fraco.

  • B

    ambas são palavras que denotam inclusão e, nesse caso, revelam uma orientação argumentativa que indica o argumento mais forte.

  • C

    “até” denota exclusão e “inclusive” denota limite; ambas revelam uma orientação argumentativa que indica o argumento mais forte.

  • D

    “até” denota limite e “inclusive” denota explicação; ambas revelam uma orientação argumentativa que indica o argumento mais fraco.

110917Questão 5|Português|médio

LETRAMENTO ALGORÍTMICO: ENFRENTANDO A SOCIEDADE DA CAIXA PRETA

Mariana Ochs

         Nos últimos anos, avançamos bastante no entendimento da necessidade urgente de construir a autonomia dos jovens para que atuem nos ambientes informacionais da sociedade com segurança, ética e responsabilidade. Cada vez mais presente nas normas educacionais, na legislação e em diversos esforços da sociedade civil, a educação midiática apresenta-se como forma mais eficaz e sustentável de lidarmos com desinformação, boatos, discursos de ódio, propaganda e outros fenômenos que podem violar direitos e até desestabilizar a democracia.

       Mas, além dos conteúdos que circulam nas mídias, há, também, a parte mais opaca dos ecossistemas de comunicação: os algoritmos que, sujeitos a lógicas e interesses comerciais, personalizam o que vemos a ponto de nos expor a recortes seletivos da realidade, direcionando comportamentos, moldando nossas opiniões de maneira sutil e, por vezes, prejudicial. Esses algoritmos muitas vezes priorizam e reforçam engajamento com conteúdo enviesados, ofensivos ou violentos, podendo, inclusive, empurrar determinados indivíduos mais suscetíveis para ambientes  — e ações —  extremistas.

       Com os ambientes digitais mediando cada vez mais a nossa visão de mundo, enfrentar esses desafios exige olharmos não só para as habilidades de acessar e avaliar mensagens mas também, e cada vez mais, educar os jovens para perceber o funcionamento e os efeitos do próprio ambiente tecnológico. Em tempos de inteligência artificial, em que perguntas humanas podem encontrar respostas incorretas ou enviesadas criadas por sistemas preditivos, a computação precisa urgentemente entrar na pauta da educação midiática.

     No entanto, deve ser explorada de forma crítica, para entendermos os seus impactos sobre a justiça social e a democracia — e não apenas como ferramenta de trabalho em uma sociedade digital. A esse novo campo, que expande os limites da educação para a informação e oferece uma ponte entre a computação e a educação midiática, chamamos de "letramento algorítmico crítico".

       Hoje vivemos o crescimento exponencial da automação baseada em dados — tecnologias chamadas de algorítmicas ou de inteligência artificial capazes de fazer previsões e tomar decisões a partir dos dados que as alimentam. Esses sistemas operam de forma silenciosa e quase onipresente na vida contemporânea, impactando desde a escolha do vídeo que vai ser apresentado a uma criança no YouTube até o sistema que vai regular sua oferta de emprego ou de crédito quando crescer. É o que vem sendo chamado de "sociedade da caixa preta”. Segundo o pesquisador australiano Neil Selwin, nesse modelo, decisões automatizadas, geralmente invisíveis para o usuário comum, moldam seu acesso a direitos, serviços e informação.

        Na prática, a educação midiática pode desenvolver as habilidades necessárias para que os jovens sejam capazes de perceber, questionar e influenciar o comportamento dos sistemas tecnológicos. Crianças e jovens devem ser levados a explorar as formas de funcionamento dos algoritmos que moldam os resultados de nossas buscas na internet; podem questionar a ética dos sistemas de previsão e recomendação, ou ainda o design por trás das interfaces das redes sociais que utilizam, incluindo os chamados "dark patterns", que manipulam nossas decisões. Devem estar atentos a dinâmicas que promovem imagens inalcançáveis ou vulnerabilizam determinados grupos. Precisam perceber e questionar exclusões ou vieses refletidos na produção das IAs generativas. Sobretudo, devem entender os mecanismos de engajamento e de atenção que favorecem conteúdos que segregam, ofendem e desestabilizam as comunidades.

       Em suma, educar para as novas dinâmicas sociotécnicas implica reconhecer que as tecnologias não são neutras e incorporam valores daqueles que as criam ou programam; que seus efeitos são ecológicos, impactando e redefinindo relações sociais e econômicas; e que, agindo sobre sociedades desiguais, podem amplificar exponencialmente as injustiças sociais e a exclusão.

     Nesse novo ambiente, a educação midiática deve ir além de construir as habilidades de acessar, avaliar e criar mensagens, examinando autoria, propósito e contexto; deve abranger também uma compreensão mais profunda da dinâmica complexa, e muitas vezes oculta, entre os indivíduos, as mídias e os sistemas tecnológicos que moldam nosso mundo. Sem a capacidade de identificar e agir sobre esses sistemas, nos tornamos vulneráveis aos efeitos desestabilizadores da desinformação e da polarização, que ameaçam as instituições e a própria paz social, e ao potencial excludente das IAs. É preciso abrir a caixa preta.

Disponível em: https://www1.folha.uol.com.br/. Acesso em: 09 nov. 2023. (texto adaptado)

Em suma, educar para as novas dinâmicas sociotécnicas implica reconhecer que as tecnologias não são neutras e incorporam valores daqueles que as criam ou programam; que seus efeitos são ecológicos, impactando e redefinindo relações sociais e econômicas; e que, agindo sobre sociedades desiguais, podem amplificar exponencialmente as injustiças sociais e a exclusão.

Sobre as quatro ocorrências da palavra “que”, é correto afirmar:

  • A

    na segunda e terceira ocorrência tem-se pronomes relativos; na primeira e na quarta ocorrências temse conjunções integrantes.

  • B

    na primeira ocorrência tem-se um pronome relativo; na segunda, na terceira e na quarta ocorrências tem-se conjunções integrantes.

  • C

    na primeira e terceira ocorrência tem-se pronomes relativos; na segunda e na quarta ocorrências temse conjunções integrantes.

  • D

    na segunda ocorrência tem-se um pronome relativo; na primeira, na terceira e na quarta ocorrências tem-se conjunções integrantes.

110918Questão 6|Português|médio

LETRAMENTO ALGORÍTMICO: ENFRENTANDO A SOCIEDADE DA CAIXA PRETA

Mariana Ochs

         Nos últimos anos, avançamos bastante no entendimento da necessidade urgente de construir a autonomia dos jovens para que atuem nos ambientes informacionais da sociedade com segurança, ética e responsabilidade. Cada vez mais presente nas normas educacionais, na legislação e em diversos esforços da sociedade civil, a educação midiática apresenta-se como forma mais eficaz e sustentável de lidarmos com desinformação, boatos, discursos de ódio, propaganda e outros fenômenos que podem violar direitos e até desestabilizar a democracia.

       Mas, além dos conteúdos que circulam nas mídias, há, também, a parte mais opaca dos ecossistemas de comunicação: os algoritmos que, sujeitos a lógicas e interesses comerciais, personalizam o que vemos a ponto de nos expor a recortes seletivos da realidade, direcionando comportamentos, moldando nossas opiniões de maneira sutil e, por vezes, prejudicial. Esses algoritmos muitas vezes priorizam e reforçam engajamento com conteúdo enviesados, ofensivos ou violentos, podendo, inclusive, empurrar determinados indivíduos mais suscetíveis para ambientes  — e ações —  extremistas.

       Com os ambientes digitais mediando cada vez mais a nossa visão de mundo, enfrentar esses desafios exige olharmos não só para as habilidades de acessar e avaliar mensagens mas também, e cada vez mais, educar os jovens para perceber o funcionamento e os efeitos do próprio ambiente tecnológico. Em tempos de inteligência artificial, em que perguntas humanas podem encontrar respostas incorretas ou enviesadas criadas por sistemas preditivos, a computação precisa urgentemente entrar na pauta da educação midiática.

     No entanto, deve ser explorada de forma crítica, para entendermos os seus impactos sobre a justiça social e a democracia — e não apenas como ferramenta de trabalho em uma sociedade digital. A esse novo campo, que expande os limites da educação para a informação e oferece uma ponte entre a computação e a educação midiática, chamamos de "letramento algorítmico crítico".

       Hoje vivemos o crescimento exponencial da automação baseada em dados — tecnologias chamadas de algorítmicas ou de inteligência artificial capazes de fazer previsões e tomar decisões a partir dos dados que as alimentam. Esses sistemas operam de forma silenciosa e quase onipresente na vida contemporânea, impactando desde a escolha do vídeo que vai ser apresentado a uma criança no YouTube até o sistema que vai regular sua oferta de emprego ou de crédito quando crescer. É o que vem sendo chamado de "sociedade da caixa preta”. Segundo o pesquisador australiano Neil Selwin, nesse modelo, decisões automatizadas, geralmente invisíveis para o usuário comum, moldam seu acesso a direitos, serviços e informação.

        Na prática, a educação midiática pode desenvolver as habilidades necessárias para que os jovens sejam capazes de perceber, questionar e influenciar o comportamento dos sistemas tecnológicos. Crianças e jovens devem ser levados a explorar as formas de funcionamento dos algoritmos que moldam os resultados de nossas buscas na internet; podem questionar a ética dos sistemas de previsão e recomendação, ou ainda o design por trás das interfaces das redes sociais que utilizam, incluindo os chamados "dark patterns", que manipulam nossas decisões. Devem estar atentos a dinâmicas que promovem imagens inalcançáveis ou vulnerabilizam determinados grupos. Precisam perceber e questionar exclusões ou vieses refletidos na produção das IAs generativas. Sobretudo, devem entender os mecanismos de engajamento e de atenção que favorecem conteúdos que segregam, ofendem e desestabilizam as comunidades.

       Em suma, educar para as novas dinâmicas sociotécnicas implica reconhecer que as tecnologias não são neutras e incorporam valores daqueles que as criam ou programam; que seus efeitos são ecológicos, impactando e redefinindo relações sociais e econômicas; e que, agindo sobre sociedades desiguais, podem amplificar exponencialmente as injustiças sociais e a exclusão.

     Nesse novo ambiente, a educação midiática deve ir além de construir as habilidades de acessar, avaliar e criar mensagens, examinando autoria, propósito e contexto; deve abranger também uma compreensão mais profunda da dinâmica complexa, e muitas vezes oculta, entre os indivíduos, as mídias e os sistemas tecnológicos que moldam nosso mundo. Sem a capacidade de identificar e agir sobre esses sistemas, nos tornamos vulneráveis aos efeitos desestabilizadores da desinformação e da polarização, que ameaçam as instituições e a própria paz social, e ao potencial excludente das IAs. É preciso abrir a caixa preta.

Disponível em: https://www1.folha.uol.com.br/. Acesso em: 09 nov. 2023. (texto adaptado)

Em suma, educar para as novas dinâmicas sociotécnicas implica reconhecer que as tecnologias não são neutras e incorporam valores daqueles que as criam ou programam; que seus efeitos são ecológicos, impactando e redefinindo relações sociais e econômicas; e que, agindo sobre sociedades desiguais, podem amplificar exponencialmente as injustiças sociais e a exclusão.

A expressão “as tecnologias” é retomada por

  • A

    um pronome relativo com função de sujeito e por um pronome possessivo.

  • B

    um pronome relativo com função de objeto direto e um pronome possessivo.

  • C

    um pronome oblíquo com função de objeto direto e por um pronome possessivo.

  • D

    um pronome oblíquo com função de objeto indireto e por um pronome possessivo.

110919Questão 7|Português|médio

LETRAMENTO ALGORÍTMICO: ENFRENTANDO A SOCIEDADE DA CAIXA PRETA

Mariana Ochs

         Nos últimos anos, avançamos bastante no entendimento da necessidade urgente de construir a autonomia dos jovens para que atuem nos ambientes informacionais da sociedade com segurança, ética e responsabilidade. Cada vez mais presente nas normas educacionais, na legislação e em diversos esforços da sociedade civil, a educação midiática apresenta-se como forma mais eficaz e sustentável de lidarmos com desinformação, boatos, discursos de ódio, propaganda e outros fenômenos que podem violar direitos e até desestabilizar a democracia.

       Mas, além dos conteúdos que circulam nas mídias, há, também, a parte mais opaca dos ecossistemas de comunicação: os algoritmos que, sujeitos a lógicas e interesses comerciais, personalizam o que vemos a ponto de nos expor a recortes seletivos da realidade, direcionando comportamentos, moldando nossas opiniões de maneira sutil e, por vezes, prejudicial. Esses algoritmos muitas vezes priorizam e reforçam engajamento com conteúdo enviesados, ofensivos ou violentos, podendo, inclusive, empurrar determinados indivíduos mais suscetíveis para ambientes  — e ações —  extremistas.

       Com os ambientes digitais mediando cada vez mais a nossa visão de mundo, enfrentar esses desafios exige olharmos não só para as habilidades de acessar e avaliar mensagens mas também, e cada vez mais, educar os jovens para perceber o funcionamento e os efeitos do próprio ambiente tecnológico. Em tempos de inteligência artificial, em que perguntas humanas podem encontrar respostas incorretas ou enviesadas criadas por sistemas preditivos, a computação precisa urgentemente entrar na pauta da educação midiática.

     No entanto, deve ser explorada de forma crítica, para entendermos os seus impactos sobre a justiça social e a democracia — e não apenas como ferramenta de trabalho em uma sociedade digital. A esse novo campo, que expande os limites da educação para a informação e oferece uma ponte entre a computação e a educação midiática, chamamos de "letramento algorítmico crítico".

       Hoje vivemos o crescimento exponencial da automação baseada em dados — tecnologias chamadas de algorítmicas ou de inteligência artificial capazes de fazer previsões e tomar decisões a partir dos dados que as alimentam. Esses sistemas operam de forma silenciosa e quase onipresente na vida contemporânea, impactando desde a escolha do vídeo que vai ser apresentado a uma criança no YouTube até o sistema que vai regular sua oferta de emprego ou de crédito quando crescer. É o que vem sendo chamado de "sociedade da caixa preta”. Segundo o pesquisador australiano Neil Selwin, nesse modelo, decisões automatizadas, geralmente invisíveis para o usuário comum, moldam seu acesso a direitos, serviços e informação.

        Na prática, a educação midiática pode desenvolver as habilidades necessárias para que os jovens sejam capazes de perceber, questionar e influenciar o comportamento dos sistemas tecnológicos. Crianças e jovens devem ser levados a explorar as formas de funcionamento dos algoritmos que moldam os resultados de nossas buscas na internet; podem questionar a ética dos sistemas de previsão e recomendação, ou ainda o design por trás das interfaces das redes sociais que utilizam, incluindo os chamados "dark patterns", que manipulam nossas decisões. Devem estar atentos a dinâmicas que promovem imagens inalcançáveis ou vulnerabilizam determinados grupos. Precisam perceber e questionar exclusões ou vieses refletidos na produção das IAs generativas. Sobretudo, devem entender os mecanismos de engajamento e de atenção que favorecem conteúdos que segregam, ofendem e desestabilizam as comunidades.

       Em suma, educar para as novas dinâmicas sociotécnicas implica reconhecer que as tecnologias não são neutras e incorporam valores daqueles que as criam ou programam; que seus efeitos são ecológicos, impactando e redefinindo relações sociais e econômicas; e que, agindo sobre sociedades desiguais, podem amplificar exponencialmente as injustiças sociais e a exclusão.

     Nesse novo ambiente, a educação midiática deve ir além de construir as habilidades de acessar, avaliar e criar mensagens, examinando autoria, propósito e contexto; deve abranger também uma compreensão mais profunda da dinâmica complexa, e muitas vezes oculta, entre os indivíduos, as mídias e os sistemas tecnológicos que moldam nosso mundo. Sem a capacidade de identificar e agir sobre esses sistemas, nos tornamos vulneráveis aos efeitos desestabilizadores da desinformação e da polarização, que ameaçam as instituições e a própria paz social, e ao potencial excludente das IAs. É preciso abrir a caixa preta.

Disponível em: https://www1.folha.uol.com.br/. Acesso em: 09 nov. 2023. (texto adaptado)

Em suma, educar para as novas dinâmicas sociotécnicas implica reconhecer que as tecnologias não são neutras e incorporam valores daqueles que as criam ou programam; que seus efeitos são ecológicos, impactando e redefinindo relações sociais e econômicas; e que, agindo sobre sociedades desiguais, podem amplificar exponencialmente as injustiças sociais e a exclusão.

Sobre a regência do verbo “implicar”, é correto afirmar que,

  • A

    independentemente do contexto linguístico, a transitividade desse verbo será sempre direta.

  • B

    independentemente do contexto linguístico, a transitividade desse verbo será sempre indireta.

  • C

    no contexto linguístico apresentado, a transitividade é direta, mas, em outros contextos linguísticos, esse verbo pode apresentar transitividade indireta.

  • D

    no contexto linguístico apresentado, a transitividade é indireta, mas, em outros contextos linguísticos, esse verbo pode apresentar transitividade direta.

110920Questão 8|Português|médio

LETRAMENTO ALGORÍTMICO: ENFRENTANDO A SOCIEDADE DA CAIXA PRETA

Mariana Ochs

         Nos últimos anos, avançamos bastante no entendimento da necessidade urgente de construir a autonomia dos jovens para que atuem nos ambientes informacionais da sociedade com segurança, ética e responsabilidade. Cada vez mais presente nas normas educacionais, na legislação e em diversos esforços da sociedade civil, a educação midiática apresenta-se como forma mais eficaz e sustentável de lidarmos com desinformação, boatos, discursos de ódio, propaganda e outros fenômenos que podem violar direitos e até desestabilizar a democracia.

       Mas, além dos conteúdos que circulam nas mídias, há, também, a parte mais opaca dos ecossistemas de comunicação: os algoritmos que, sujeitos a lógicas e interesses comerciais, personalizam o que vemos a ponto de nos expor a recortes seletivos da realidade, direcionando comportamentos, moldando nossas opiniões de maneira sutil e, por vezes, prejudicial. Esses algoritmos muitas vezes priorizam e reforçam engajamento com conteúdo enviesados, ofensivos ou violentos, podendo, inclusive, empurrar determinados indivíduos mais suscetíveis para ambientes  — e ações —  extremistas.

       Com os ambientes digitais mediando cada vez mais a nossa visão de mundo, enfrentar esses desafios exige olharmos não só para as habilidades de acessar e avaliar mensagens mas também, e cada vez mais, educar os jovens para perceber o funcionamento e os efeitos do próprio ambiente tecnológico. Em tempos de inteligência artificial, em que perguntas humanas podem encontrar respostas incorretas ou enviesadas criadas por sistemas preditivos, a computação precisa urgentemente entrar na pauta da educação midiática.

     No entanto, deve ser explorada de forma crítica, para entendermos os seus impactos sobre a justiça social e a democracia — e não apenas como ferramenta de trabalho em uma sociedade digital. A esse novo campo, que expande os limites da educação para a informação e oferece uma ponte entre a computação e a educação midiática, chamamos de "letramento algorítmico crítico".

       Hoje vivemos o crescimento exponencial da automação baseada em dados — tecnologias chamadas de algorítmicas ou de inteligência artificial capazes de fazer previsões e tomar decisões a partir dos dados que as alimentam. Esses sistemas operam de forma silenciosa e quase onipresente na vida contemporânea, impactando desde a escolha do vídeo que vai ser apresentado a uma criança no YouTube até o sistema que vai regular sua oferta de emprego ou de crédito quando crescer. É o que vem sendo chamado de "sociedade da caixa preta”. Segundo o pesquisador australiano Neil Selwin, nesse modelo, decisões automatizadas, geralmente invisíveis para o usuário comum, moldam seu acesso a direitos, serviços e informação.

        Na prática, a educação midiática pode desenvolver as habilidades necessárias para que os jovens sejam capazes de perceber, questionar e influenciar o comportamento dos sistemas tecnológicos. Crianças e jovens devem ser levados a explorar as formas de funcionamento dos algoritmos que moldam os resultados de nossas buscas na internet; podem questionar a ética dos sistemas de previsão e recomendação, ou ainda o design por trás das interfaces das redes sociais que utilizam, incluindo os chamados "dark patterns", que manipulam nossas decisões. Devem estar atentos a dinâmicas que promovem imagens inalcançáveis ou vulnerabilizam determinados grupos. Precisam perceber e questionar exclusões ou vieses refletidos na produção das IAs generativas. Sobretudo, devem entender os mecanismos de engajamento e de atenção que favorecem conteúdos que segregam, ofendem e desestabilizam as comunidades.

       Em suma, educar para as novas dinâmicas sociotécnicas implica reconhecer que as tecnologias não são neutras e incorporam valores daqueles que as criam ou programam; que seus efeitos são ecológicos, impactando e redefinindo relações sociais e econômicas; e que, agindo sobre sociedades desiguais, podem amplificar exponencialmente as injustiças sociais e a exclusão.

     Nesse novo ambiente, a educação midiática deve ir além de construir as habilidades de acessar, avaliar e criar mensagens, examinando autoria, propósito e contexto; deve abranger também uma compreensão mais profunda da dinâmica complexa, e muitas vezes oculta, entre os indivíduos, as mídias e os sistemas tecnológicos que moldam nosso mundo. Sem a capacidade de identificar e agir sobre esses sistemas, nos tornamos vulneráveis aos efeitos desestabilizadores da desinformação e da polarização, que ameaçam as instituições e a própria paz social, e ao potencial excludente das IAs. É preciso abrir a caixa preta.

Disponível em: https://www1.folha.uol.com.br/. Acesso em: 09 nov. 2023. (texto adaptado)

Considerando-se a progressão textual entre os parágrafos, é correto afirmar:

  • A

    os parágrafos dois e quatro iniciam com elementos linguísticos que sinalizam uma mudança no direcionamento argumentativo em relação aos parágrafos que os antecedem, evidenciando, nos dois casos, relação de contraposição.

  • B

    os parágrafos dois e quatro iniciam com elementos linguísticos que sinalizam um acréscimo de argumentos que vão na mesma direção em relação aos parágrafos que os antecedem, evidenciando, nos dois casos, relação de adição.

  • C

    o parágrafo quatro inicia com elemento linguístico que sinaliza um acréscimo de argumento que vai na mesma direção em relação ao parágrafo que o antecede, evidenciando, nesse caso, relação de conclusão.

  • D

    o parágrafo dois inicia com elemento linguístico que sinaliza uma mudança no direcionamento argumentativo em relação ao parágrafo que o antecede, evidenciando, nesse caso, relação de comparação.

110921Questão 9|Português|médio

LETRAMENTO ALGORÍTMICO: ENFRENTANDO A SOCIEDADE DA CAIXA PRETA

Mariana Ochs

         Nos últimos anos, avançamos bastante no entendimento da necessidade urgente de construir a autonomia dos jovens para que atuem nos ambientes informacionais da sociedade com segurança, ética e responsabilidade. Cada vez mais presente nas normas educacionais, na legislação e em diversos esforços da sociedade civil, a educação midiática apresenta-se como forma mais eficaz e sustentável de lidarmos com desinformação, boatos, discursos de ódio, propaganda e outros fenômenos que podem violar direitos e até desestabilizar a democracia.

       Mas, além dos conteúdos que circulam nas mídias, há, também, a parte mais opaca dos ecossistemas de comunicação: os algoritmos que, sujeitos a lógicas e interesses comerciais, personalizam o que vemos a ponto de nos expor a recortes seletivos da realidade, direcionando comportamentos, moldando nossas opiniões de maneira sutil e, por vezes, prejudicial. Esses algoritmos muitas vezes priorizam e reforçam engajamento com conteúdo enviesados, ofensivos ou violentos, podendo, inclusive, empurrar determinados indivíduos mais suscetíveis para ambientes  — e ações —  extremistas.

       Com os ambientes digitais mediando cada vez mais a nossa visão de mundo, enfrentar esses desafios exige olharmos não só para as habilidades de acessar e avaliar mensagens mas também, e cada vez mais, educar os jovens para perceber o funcionamento e os efeitos do próprio ambiente tecnológico. Em tempos de inteligência artificial, em que perguntas humanas podem encontrar respostas incorretas ou enviesadas criadas por sistemas preditivos, a computação precisa urgentemente entrar na pauta da educação midiática.

     No entanto, deve ser explorada de forma crítica, para entendermos os seus impactos sobre a justiça social e a democracia — e não apenas como ferramenta de trabalho em uma sociedade digital. A esse novo campo, que expande os limites da educação para a informação e oferece uma ponte entre a computação e a educação midiática, chamamos de "letramento algorítmico crítico".

       Hoje vivemos o crescimento exponencial da automação baseada em dados — tecnologias chamadas de algorítmicas ou de inteligência artificial capazes de fazer previsões e tomar decisões a partir dos dados que as alimentam. Esses sistemas operam de forma silenciosa e quase onipresente na vida contemporânea, impactando desde a escolha do vídeo que vai ser apresentado a uma criança no YouTube até o sistema que vai regular sua oferta de emprego ou de crédito quando crescer. É o que vem sendo chamado de "sociedade da caixa preta”. Segundo o pesquisador australiano Neil Selwin, nesse modelo, decisões automatizadas, geralmente invisíveis para o usuário comum, moldam seu acesso a direitos, serviços e informação.

        Na prática, a educação midiática pode desenvolver as habilidades necessárias para que os jovens sejam capazes de perceber, questionar e influenciar o comportamento dos sistemas tecnológicos. Crianças e jovens devem ser levados a explorar as formas de funcionamento dos algoritmos que moldam os resultados de nossas buscas na internet; podem questionar a ética dos sistemas de previsão e recomendação, ou ainda o design por trás das interfaces das redes sociais que utilizam, incluindo os chamados "dark patterns", que manipulam nossas decisões. Devem estar atentos a dinâmicas que promovem imagens inalcançáveis ou vulnerabilizam determinados grupos. Precisam perceber e questionar exclusões ou vieses refletidos na produção das IAs generativas. Sobretudo, devem entender os mecanismos de engajamento e de atenção que favorecem conteúdos que segregam, ofendem e desestabilizam as comunidades.

       Em suma, educar para as novas dinâmicas sociotécnicas implica reconhecer que as tecnologias não são neutras e incorporam valores daqueles que as criam ou programam; que seus efeitos são ecológicos, impactando e redefinindo relações sociais e econômicas; e que, agindo sobre sociedades desiguais, podem amplificar exponencialmente as injustiças sociais e a exclusão.

     Nesse novo ambiente, a educação midiática deve ir além de construir as habilidades de acessar, avaliar e criar mensagens, examinando autoria, propósito e contexto; deve abranger também uma compreensão mais profunda da dinâmica complexa, e muitas vezes oculta, entre os indivíduos, as mídias e os sistemas tecnológicos que moldam nosso mundo. Sem a capacidade de identificar e agir sobre esses sistemas, nos tornamos vulneráveis aos efeitos desestabilizadores da desinformação e da polarização, que ameaçam as instituições e a própria paz social, e ao potencial excludente das IAs. É preciso abrir a caixa preta.

Disponível em: https://www1.folha.uol.com.br/. Acesso em: 09 nov. 2023. (texto adaptado)

Sobre os usos das aspas, no texto, é correto afirmar:

  • A

    no quinto parágrafo, as aspas indicam que a autora do texto discorda do sentido comum da expressão sinalizada.

  • B

    no quarto parágrafo, as aspas indicam que a autora do texto usou uma expressão que considerou incomum ao universo verbal dos leitores.

  • C

    no quarto parágrafo, as aspas indicam que a autora do texto imprimiu um sentido irônico em relação à expressão sinalizada.

  • D

    no quinto parágrafo, as aspas indicam que a autora do texto se distancia do uso de uma expressão característica do registro informal da língua.

110922Questão 10|Português|médio

LETRAMENTO ALGORÍTMICO: ENFRENTANDO A SOCIEDADE DA CAIXA PRETA

Mariana Ochs

         Nos últimos anos, avançamos bastante no entendimento da necessidade urgente de construir a autonomia dos jovens para que atuem nos ambientes informacionais da sociedade com segurança, ética e responsabilidade. Cada vez mais presente nas normas educacionais, na legislação e em diversos esforços da sociedade civil, a educação midiática apresenta-se como forma mais eficaz e sustentável de lidarmos com desinformação, boatos, discursos de ódio, propaganda e outros fenômenos que podem violar direitos e até desestabilizar a democracia.

       Mas, além dos conteúdos que circulam nas mídias, há, também, a parte mais opaca dos ecossistemas de comunicação: os algoritmos que, sujeitos a lógicas e interesses comerciais, personalizam o que vemos a ponto de nos expor a recortes seletivos da realidade, direcionando comportamentos, moldando nossas opiniões de maneira sutil e, por vezes, prejudicial. Esses algoritmos muitas vezes priorizam e reforçam engajamento com conteúdo enviesados, ofensivos ou violentos, podendo, inclusive, empurrar determinados indivíduos mais suscetíveis para ambientes  — e ações —  extremistas.

       Com os ambientes digitais mediando cada vez mais a nossa visão de mundo, enfrentar esses desafios exige olharmos não só para as habilidades de acessar e avaliar mensagens mas também, e cada vez mais, educar os jovens para perceber o funcionamento e os efeitos do próprio ambiente tecnológico. Em tempos de inteligência artificial, em que perguntas humanas podem encontrar respostas incorretas ou enviesadas criadas por sistemas preditivos, a computação precisa urgentemente entrar na pauta da educação midiática.

     No entanto, deve ser explorada de forma crítica, para entendermos os seus impactos sobre a justiça social e a democracia — e não apenas como ferramenta de trabalho em uma sociedade digital. A esse novo campo, que expande os limites da educação para a informação e oferece uma ponte entre a computação e a educação midiática, chamamos de "letramento algorítmico crítico".

       Hoje vivemos o crescimento exponencial da automação baseada em dados — tecnologias chamadas de algorítmicas ou de inteligência artificial capazes de fazer previsões e tomar decisões a partir dos dados que as alimentam. Esses sistemas operam de forma silenciosa e quase onipresente na vida contemporânea, impactando desde a escolha do vídeo que vai ser apresentado a uma criança no YouTube até o sistema que vai regular sua oferta de emprego ou de crédito quando crescer. É o que vem sendo chamado de "sociedade da caixa preta”. Segundo o pesquisador australiano Neil Selwin, nesse modelo, decisões automatizadas, geralmente invisíveis para o usuário comum, moldam seu acesso a direitos, serviços e informação.

        Na prática, a educação midiática pode desenvolver as habilidades necessárias para que os jovens sejam capazes de perceber, questionar e influenciar o comportamento dos sistemas tecnológicos. Crianças e jovens devem ser levados a explorar as formas de funcionamento dos algoritmos que moldam os resultados de nossas buscas na internet; podem questionar a ética dos sistemas de previsão e recomendação, ou ainda o design por trás das interfaces das redes sociais que utilizam, incluindo os chamados "dark patterns", que manipulam nossas decisões. Devem estar atentos a dinâmicas que promovem imagens inalcançáveis ou vulnerabilizam determinados grupos. Precisam perceber e questionar exclusões ou vieses refletidos na produção das IAs generativas. Sobretudo, devem entender os mecanismos de engajamento e de atenção que favorecem conteúdos que segregam, ofendem e desestabilizam as comunidades.

       Em suma, educar para as novas dinâmicas sociotécnicas implica reconhecer que as tecnologias não são neutras e incorporam valores daqueles que as criam ou programam; que seus efeitos são ecológicos, impactando e redefinindo relações sociais e econômicas; e que, agindo sobre sociedades desiguais, podem amplificar exponencialmente as injustiças sociais e a exclusão.

     Nesse novo ambiente, a educação midiática deve ir além de construir as habilidades de acessar, avaliar e criar mensagens, examinando autoria, propósito e contexto; deve abranger também uma compreensão mais profunda da dinâmica complexa, e muitas vezes oculta, entre os indivíduos, as mídias e os sistemas tecnológicos que moldam nosso mundo. Sem a capacidade de identificar e agir sobre esses sistemas, nos tornamos vulneráveis aos efeitos desestabilizadores da desinformação e da polarização, que ameaçam as instituições e a própria paz social, e ao potencial excludente das IAs. É preciso abrir a caixa preta.

Disponível em: https://www1.folha.uol.com.br/. Acesso em: 09 nov. 2023. (texto adaptado)

No quinto parágrafo, a voz do pesquisador australiano entrecruza-se com a voz da autora sob forma

  • A

    indireta, em que se parafraseia o discurso do autor citado, e se contrapõe ao posicionamento da autora do texto.

  • B

    direta, em que se transcreve o discurso do autor citado, e se contrapõe ao posicionamento da autora do texto.

  • C

    direta, em que se transcreve o discurso do autor citado, e fortalece o posicionamento da autora do texto.

  • D

    indireta, em que se parafraseia o discurso do autor citado, e fortalece o posicionamento da autora do texto.

Assistente em Administração - 2024 | Prova