trabajos_finales
Diferencias
Muestra las diferencias entre dos versiones de la página.
| Ambos lados, revisión anteriorRevisión previaPróxima revisión | Revisión previa | ||
| trabajos_finales [2025/11/24 10:25] – aleanidez | trabajos_finales [2025/11/25 08:23] (actual) – [Grupo 4] spardoa | ||
|---|---|---|---|
| Línea 19: | Línea 19: | ||
| - | * Aplicación de IAG: | + | * Aplicación de IAG: Gemini |
| - | * Integrantes: | + | * Integrantes: |
| - | (Adicionen un resumen sobre el caso de estudio que desarrollaron | + | |
| + | **Resumen: | ||
| + | |||
| + | |||
| + | **TRABAJO ESCRITO:** [[https:// | ||
| + | |||
| + | **PÁGINA WEB (PRODUCTO):** https:// | ||
| ====== Grupo 3 ====== | ====== Grupo 3 ====== | ||
| - | * Aplicación de IAG: | + | * Aplicación de IAG:Copilot |
| - | * Integrantes: | + | * Integrantes: |
| + | |||
| + | El documento analiza Microsoft Copilot como una herramienta de IA generativa que transforma la manera en que se produce y gestiona contenido digital. Copilot facilita tareas como redactar, resumir, diseñar o programar, lo que aumenta la productividad y cambia el rol del usuario hacia una posición de supervisión y curaduría más que de creación directa. Al mismo tiempo, el estudio señala riesgos relacionados con privacidad, propiedad intelectual, | ||
| - | (Adicionen un resumen sobre el caso de estudio que desarrollaron y un enlace al reporte o producto creativo) | + | https:// |
| ====== Grupo 4 ====== | ====== Grupo 4 ====== | ||
| Línea 42: | Línea 50: | ||
| https:// | https:// | ||
| + | |||
| + | Reporte: | ||
| ====== Grupo 5 ====== | ====== Grupo 5 ====== | ||
| Línea 69: | Línea 79: | ||
| En este trabajo analizamos a Grok, la IA de xAI en X, para entender cómo influye en la comunicación y qué riesgos éticos presenta. A partir de autores como Jenkins, Balladares, Gray, Floridi & De Bruin y Sued, identificamos que Grok opera en un ecosistema donde los datos, las decisiones de diseño y la falta de transparencia pueden amplificar sesgos y desinformación. Las noticias sobre uso indebido de datos, contenido antisemita, instrucciones internas problemáticas y el “modo Spicy” confirmaron estos riesgos en la práctica. Con esa base elaboramos el podcast, concluyendo que Grok puede ser útil para seguir conversaciones públicas, pero también puede reforzar fake news, por lo que como comunicadores debemos verificar, contextualizar y usar la herramienta con responsabilidad. | En este trabajo analizamos a Grok, la IA de xAI en X, para entender cómo influye en la comunicación y qué riesgos éticos presenta. A partir de autores como Jenkins, Balladares, Gray, Floridi & De Bruin y Sued, identificamos que Grok opera en un ecosistema donde los datos, las decisiones de diseño y la falta de transparencia pueden amplificar sesgos y desinformación. Las noticias sobre uso indebido de datos, contenido antisemita, instrucciones internas problemáticas y el “modo Spicy” confirmaron estos riesgos en la práctica. Con esa base elaboramos el podcast, concluyendo que Grok puede ser útil para seguir conversaciones públicas, pero también puede reforzar fake news, por lo que como comunicadores debemos verificar, contextualizar y usar la herramienta con responsabilidad. | ||
| - | Podcast: | + | Podcast: |
| Docs: https:// | Docs: https:// | ||
| Línea 76: | Línea 87: | ||
| ====== Grupo 8 ====== | ====== Grupo 8 ====== | ||
| - | * Aplicación de IAG: | + | * Aplicación de IAG:Synthesia |
| - | * Integrantes: | + | * Integrantes: |
| + | |||
| + | El texto analiza Synthesia, una plataforma de IA que convierte texto en video con avatares, mostrando cómo cambia la producción audiovisual al estandarizar la estética y distribuir la autoría entre usuario y plataforma. Señala riesgos relacionados con datos biométricos, | ||
| - | (Adicionen un resumen sobre el caso de estudio que desarrollaron y un enlace al reporte o producto creativo) | + | Video: https:// |
| + | Doc: https:// | ||
trabajos_finales.1764008730.txt.gz · Última modificación: por aleanidez
