Reel VS Real: Revisión de literatura parte 2

Detección de noticias falsas

Hola amigos, en el último blog revisamos seis trabajos de investigación diferentes y señalamos sus resultados. En este blog vamos a discutir algunos trabajos de investigación más que me ayudaron a construir mi proyecto.

Revisión de literatura

Autores: Rohit Kumar Kaliyar

Trabajo: En este proyecto se exploraron diferentes modelos de aprendizaje automático como Naïve Bayes, K vecinos más cercanos, árbol de decisión, bosque aleatorio y redes de aprendizaje profundo como redes neuronales convolucionales superficiales (CNN), redes neuronales convolucionales muy profundas (VDCNN), memoria a corto plazo (LSTM), Red de Unidad Recurrente Cerrada (GRU), Combinación de Red Neural Convolucional con Memoria a Largo Corto Plazo (CNN-LSTM) y Red Neural Convolucional con Unidad Recurrente Cerrada (CNN-LSTM). También exploró el beneficio de la extracción de características, características como n-gram, características TF-IDF fueron extraídas y utilizadas en nuestro modelo. También exploramos la eficacia de las funciones de incrustación de palabras y word2vec en las redes neuronales profundas.

También te puede interesarNumPy: cuando necesita más arreglos en su vida

Conclusión: se hace una comparación entre varios modelos y la puntuación F1, se encuentra recuperación y precisión de cada algoritmo. Pero no se menciona una evaluación final del algoritmo más adecuado.

Autores: Ankit Kesarwani, Sudakar Singh Chauhan, Anil Ramachandran Nair

Trabajo: Son numerosos los estudios sobre detección de fake news en los últimos años debido a su importante impacto en la opinión pública y el discurso social. Uno de estos estudios se realizó utilizando el algoritmo clasificador K-Nearest Neighbor (KNN) para detectar noticias falsas en las redes sociales. La selección de características de los conjuntos de datos es la parte esencial de este proceso, ya que el algoritmo de minería de datos (K-Vecino más cercano) lo utiliza para clasificar el artículo de noticias en las redes sociales.

Conclusión: la precisión lograda con el algoritmo KNN es del 79%, que es menor que el algoritmo SVM, como se ve en el otro documento. En conclusión, el estudio demuestra la efectividad del algoritmo clasificador KNN para detectar noticias falsas en las redes sociales. Sin embargo, se necesita más investigación para explorar otros algoritmos y técnicas de aprendizaje automático para una detección de noticias falsas más precisa y eficiente.

También te puede interesar¿Podemos confiar en ChatGPT y LLM en tareas de recuperación de información?

Autor: Love Deep Singh

Trabajo: este artículo explora la efectividad de varias técnicas de aprendizaje profundo para detectar noticias falsas. El estudio utiliza un conjunto de datos de artículos de noticias recopilados de varias fuentes, que se clasificaron como noticias falsas o reales.

El estudio evalúa el rendimiento de tres técnicas de aprendizaje profundo: redes neuronales convolucionales (CNN), redes de memoria a corto plazo (LSTM) y redes LSTM bidireccionales. Los datos de texto se preprocesan primero mediante la eliminación de palabras vacías, signos de puntuación y caracteres especiales, y luego se transforman en representaciones vectoriales utilizando el algoritmo Word2Vec.

Luego, los modelos de aprendizaje profundo se entrenan en los datos preprocesados ​​y vectorizados, y su rendimiento se evalúa utilizando varias métricas de evaluación, como exactitud, precisión, recuperación y puntaje F1. Los resultados del estudio muestran que la red LSTM bidireccional supera a los otros dos modelos, logrando una precisión del 94,9 % y una puntuación F1 de 0,95.

También te puede interesarLibros para la ciencia de datos

Conclusión: El estudio concluye que las técnicas de aprendizaje profundo pueden ser altamente efectivas en la detección de noticias falsas, siendo la red LSTM bidireccional la técnica más efectiva entre las tres evaluadas en el estudio. El estudio también destaca la importancia de las técnicas adecuadas de preprocesamiento y vectorización de datos para lograr un rendimiento óptimo.

Autores: Paweł Zyblewski, Paweł Ksieniewicz, Rafał Kozik, Michał Choras, Michał Wozniak, Agata Giełczyk

Trabajo: El trabajo de investigación explora el desafío de detectar noticias falsas a partir de flujos de datos dinámicos. El estudio propone un enfoque de aprendizaje en línea para detectar noticias falsas en tiempo real a partir de flujos de datos. El estudio utiliza un conjunto de datos de artículos de noticias recopilados de varias fuentes, que se clasificaron como noticias falsas o reales. El flujo de datos se simula seleccionando al azar artículos de noticias del conjunto de datos y transmitiéndolos a través del algoritmo de aprendizaje en línea propuesto.

El algoritmo de aprendizaje en línea se basa en el algoritmo Pasivo-Agresivo (PA), que es una técnica popular de aprendizaje en línea. El algoritmo se entrena en una ventana deslizante de datos, que se actualiza continuamente a medida que llegan nuevos datos. Los datos se preprocesan eliminando palabras vacías, signos de puntuación y caracteres especiales, y luego se transforman en representaciones vectoriales utilizando el método Frecuencia de término-Frecuencia de documento inversa (TF-IDF).

También te puede interesar“El poder de GPT: lograr mejores resultados que los motores de búsqueda tradicionales para banqueros”“El poder de GPT: lograr mejores resultados que los motores de búsqueda tradicionales para banqueros”

El rendimiento del enfoque propuesto se evalúa utilizando varias métricas de evaluación, como exactitud, precisión, recuperación y puntuación F1. Los resultados del estudio muestran que el enfoque propuesto puede lograr una precisión de hasta el 88 % en la detección de noticias falsas a partir de flujos de datos.

Conclusión: el estudio concluye que las técnicas de aprendizaje en línea pueden ser efectivas para detectar noticias falsas a partir de flujos de datos en tiempo real. El estudio también destaca la importancia de un preprocesamiento de datos adecuado y técnicas de ingeniería de características para lograr un rendimiento óptimo. En general, el documento de investigación brinda información valiosa sobre el uso de técnicas de aprendizaje en línea para la detección de noticias falsas a partir de flujos de datos, lo que puede ser útil para los investigadores y profesionales que trabajan en este campo.

Estos son los diez trabajos de investigación que me ayudaron a comprender los conceptos necesarios para construir mi proyecto. En el próximo blog, discutiremos los conceptos y las ideas que obtuve al leer los trabajos de investigación y su aplicación a nuestro proyecto. ¡Hasta entonces estad atentos!

Scroll al inicio