Améliorations au moteur de recherche

This commit is contained in:
François Pelletier 2024-11-30 22:03:49 -05:00
parent 15eb318212
commit fc6bd9f255
21 changed files with 509 additions and 223 deletions

View file

@ -1,11 +1,11 @@
import os
import utils.reseau_social_data as rs_data
# %% Créer le répertoire data s'il n'existe pas
## %% Créer le répertoire data s'il n'existe pas
if not os.path.exists('data'):
os.makedirs('data')
# %% Créer les répertoires pour chaque réseau sociaux
## %% Créer les répertoires pour chaque réseau sociaux
for reseau_social in rs_data.reseau_social_data:
if not os.path.exists(f'data/{reseau_social["nom"]}/'):
os.makedirs(f'data/{reseau_social["nom"]}/')

View file

@ -2,7 +2,7 @@ from typesense.exceptions import TypesenseClientError, ObjectAlreadyExists
from utils.typesense_client import client
# Create a collection
## %% Create a collection
try:
client.collections.create({
'name': 'social_media_posts',
@ -13,10 +13,13 @@ try:
{'name': 'index', 'type': 'string', 'facet': True},
{'name': 'chemin', 'type': 'string'},
{'name': 'texte', 'type': 'string'},
{'name': 'langue', 'type': 'string', 'facet': True},
{'name': 'texte_urls', 'type': 'string[]'},
{'name': 'nombre_de_mots', 'type': 'int64'},
{'name': 'creation_timestamp', 'type': 'int64'},
{
"name" : "embedding",
"type" : "float[]",
"name": "embedding",
"type": "float[]",
"embed": {
"from": [
"texte"
@ -31,10 +34,8 @@ try:
})
print("Collection 'social_media_posts' created successfully.")
except TypesenseClientError as e:
if e==ObjectAlreadyExists:
if e == ObjectAlreadyExists:
print("Collection 'social_media_posts' already exists. Skipping creation.")
else:
print(f"Error creating collection: {str(e)}")
raise

View file

@ -1,3 +1,4 @@
# Utiliser au besoin seulement pour supprimer la collection 'social_media_posts' dans Typesense
## %% Utiliser au besoin seulement pour supprimer la collection 'social_media_posts' dans Typesense
from utils.typesense_client import client
## %%
client.collections['social_media_posts'].delete()

View file

@ -6,21 +6,18 @@ from pathlib import Path
from utils.documents_to_database import documents_to_database
from utils.convert_encoding_meta import convert_encoding_meta
#%% In[ ]:
#%% In[ ]:
# Get the current file's directory
## %% Déterminer le chemin du répertoire du script
try:
# This will work when running as a script
# Ceci fonctionnera lors de l'exécution en tant que script
script_dir = Path(__file__).parent.parent
except NameError:
# This will work in interactive environments
# Ceci fonctionnera dans des environnements interactifs
script_dir = Path().absolute()
project_root = script_dir
fb_data_path = [os.path.join(project_root, 'import_data', 'data', 'FacebookBusiness', 'posts', 'profile_posts_1.json')]
## %% Lire et parser le fichier JSON des posts Facebook
try:
with open(fb_data_path[0], "r", encoding="raw-unicode-escape") as posts:
posts_json = json.loads(convert_encoding_meta(posts.read()))
@ -28,17 +25,18 @@ except Exception as e:
print(f"Error reading JSON file: {e}")
exit(1)
#%% In[ ]:
## %% Extraire les données pertinentes de chaque post
posts_medias = []
for post in posts_json:
# data
# Extraire le texte du post
data_post_items = post['data']
texte_post_list = []
for item in data_post_items:
if item.get('post'):
texte_post_list.append(item['post'])
texte = "\n".join(texte_post_list)
# attachments
# Traiter les pièces jointes du post
for attachment in post['attachments']:
if attachment.get('data'):
for data_item in attachment['data']:
@ -52,14 +50,14 @@ for post in posts_json:
"texte": texte,
"creation_timestamp": media["creation_timestamp"]})
#%% In[ ]:
## %% Créer un DataFrame à partir des données extraites
posts_medias_df = pd.DataFrame(posts_medias)
#%% In[ ]:
## %% Remplacer les valeurs NaN par des chaînes vides
posts_medias_df.fillna(value="", inplace=True)
#%% In[ ]:
## %% Supprimer les doublons basés sur le texte et le timestamp de création
posts_medias_df.drop_duplicates(subset=['texte', 'creation_timestamp'], inplace=True)
#%% In[ ]:
## %% Envoyer les données à la base de données
documents_to_database(posts_medias_df)

View file

@ -6,23 +6,23 @@ from pathlib import Path
from utils.documents_to_database import documents_to_database
from utils.convert_encoding_meta import convert_encoding_meta
#%% In[ ]:
# Get the current file's directory
## %% Obtenir le répertoire du fichier courant
# Obtenir le répertoire du fichier courant
try:
# This will work when running as a script
# Ceci fonctionnera lors de l'exécution en tant que script
script_dir = Path(__file__).parent.parent
except NameError:
# This will work in interactive environments
# Ceci fonctionnera dans des environnements interactifs
script_dir = Path().absolute()
project_root = script_dir
fb_data_path = [os.path.join(project_root, 'import_data', 'data', 'Facebook', 'comments_and_reactions', 'comments.json')]
## %% Lire et parser le fichier JSON des commentaires Facebook
with open(fb_data_path[0], "r", encoding="raw-unicode-escape") as posts:
comments_json = json.loads(convert_encoding_meta(posts.read()))
#%% In[ ]:
## %% Extraire les données pertinentes de chaque commentaire
facebook_comments = []
for comment in comments_json['comments_v2']:
if comment.get('data'):
@ -36,8 +36,8 @@ for comment in comments_json['comments_v2']:
"texte": comment["comment"],
"creation_timestamp": comment["timestamp"]})
#%% In[ ]:
## %% Créer un DataFrame à partir des données extraites
facebook_comments_df = pd.DataFrame(facebook_comments)
#%% In[ ]:
## %% Envoyer les données à la base de données
documents_to_database(facebook_comments_df)

View file

@ -6,46 +6,45 @@ from pathlib import Path
from utils.documents_to_database import documents_to_database
from utils.convert_encoding_meta import convert_encoding_meta
#%% In[ ]:
# Get the current file's directory
## %% Obtenir le répertoire du fichier courant
# Obtenir le répertoire du fichier courant
try:
# This will work when running as a script
# Ceci fonctionnera lors de l'exécution en tant que script
script_dir = Path(__file__).parent.parent
except NameError:
# This will work in interactive environments
# Ceci fonctionnera dans des environnements interactifs
script_dir = Path().absolute()
project_root = script_dir
fb_data_path = os.path.join(project_root, 'import_data', 'data', 'Facebook', 'posts', 'your_uncategorized_photos.json')
## %% Lire et parser le fichier JSON des photos Facebook non catégorisées
with open(fb_data_path, "r", encoding="raw-unicode-escape") as posts:
photos_json = json.loads(convert_encoding_meta(posts.read()))
#%% In[ ]:
## %% Extraire les photos non catégorisées du JSON
facebook_photos = photos_json['other_photos_v2']
#%% In[ ]:
## %% Créer un DataFrame à partir des photos extraites
facebook_photos_df = pd.DataFrame(facebook_photos)
#%% In[ ]:
# Filter out posts without a description
## %% Filtrer les publications sans description
facebook_photos_df = facebook_photos_df[~facebook_photos_df['description'].isnull()]
#%% In[ ]:
## %% Ajouter des métadonnées au DataFrame
facebook_photos_df['index'] = "rs_facebook_posts"
facebook_photos_df['network'] = "Facebook"
facebook_photos_df['type'] = "posts"
facebook_photos_df['chemin'] = fb_data_path
#%% In[ ]:
## %% Renommer la colonne 'description' en 'texte'
facebook_photos_df.rename(columns={"description": "texte"}, inplace=True)
#%% In[ ]:
## %% Supprimer la colonne 'media_metadata'
del facebook_photos_df['media_metadata']
#%% In[ ]:
## %% Remplacer les valeurs NaN par des chaînes vides
facebook_photos_df.fillna(value="", inplace=True)
#%% In[ ]:
## %% Envoyer les données à la base de données
documents_to_database(facebook_photos_df)

View file

@ -6,23 +6,23 @@ from pathlib import Path
from utils.documents_to_database import documents_to_database
from utils.convert_encoding_meta import convert_encoding_meta
#%% In[ ]:
# Get the current file's directory
## %% Obtenir le répertoire du fichier courant
# Obtenir le répertoire du fichier courant
try:
# This will work when running as a script
# Ceci fonctionnera lors de l'exécution en tant que script
script_dir = Path(__file__).parent.parent
except NameError:
# This will work in interactive environments
# Ceci fonctionnera dans des environnements interactifs
script_dir = Path().absolute()
project_root = script_dir
instagram_data_path = os.path.join(project_root, 'import_data', 'data', 'Instagram', 'content', 'posts_1.json')
## %% Lire et parser le fichier JSON des publications Instagram
with open(instagram_data_path, "r", encoding="raw-unicode-escape") as posts:
posts_json = json.loads(convert_encoding_meta(posts.read()))
#%% In[ ]:
## %% Extraire et structurer les données des publications Instagram
posts_medias = []
for post in posts_json:
medias = post['media']
@ -56,18 +56,17 @@ for post in posts_json:
"texte": title,
"creation_timestamp": creation_timestamp})
#%% In[ ]:
## %% Créer un DataFrame à partir des données extraites
posts_medias_df = pd.DataFrame(posts_medias)
#%% In[ ]:
## %% Remplacer les valeurs NaN par des chaînes vides
posts_medias_df.fillna(value="", inplace=True)
#%% In[ ]:
## %% Supprimer les doublons basés sur le texte et la date de création
posts_medias_df.drop_duplicates(subset=['texte', 'creation_timestamp'], inplace=True)
#%% In[ ]:
# Filter empty texte
## %% Filtrer les publications avec un texte vide
posts_medias_df = posts_medias_df[~posts_medias_df['texte'].str.strip().eq('')]
#%% In[ ]:
## %% Envoyer les données à la base de données
documents_to_database(posts_medias_df)

View file

@ -6,50 +6,50 @@ from pathlib import Path
from utils.documents_to_database import documents_to_database
from utils.convert_encoding_meta import convert_encoding_meta
#%% In[ ]:
# Get the current file's directory
## %% Obtenir le répertoire du fichier courant
# Obtenir le répertoire du fichier courant
try:
# This will work when running as a script
# Ceci fonctionnera lors de l'exécution en tant que script
script_dir = Path(__file__).parent.parent
except NameError:
# This will work in interactive environments
# Ceci fonctionnera dans des environnements interactifs
script_dir = Path().absolute()
project_root = script_dir
instagram_data_path = os.path.join(project_root, 'import_data', 'data', 'Instagram', 'content', 'reels.json')
## %% Lire et parser le fichier JSON des reels Instagram
with open(instagram_data_path, "r", encoding="raw-unicode-escape") as posts:
reels_json = json.loads(convert_encoding_meta(posts.read()))
#%% In[ ]:
## %% Extraire les données média des reels
ig_reels_media = [x['media'][0] for x in reels_json['ig_reels_media']]
#%% In[ ]:
## %% Créer un DataFrame à partir des données extraites
ig_reels_df = pd.DataFrame(ig_reels_media)
#%% In[ ]:
## %% Ajouter des colonnes supplémentaires au DataFrame
ig_reels_df['index'] = "rs_instagram_content"
ig_reels_df['type'] = "reels"
ig_reels_df['network'] = "Instagram"
ig_reels_df['chemin'] = instagram_data_path
#%% In[ ]:
## %% Renommer la colonne 'title' en 'texte'
ig_reels_df.rename(columns={"title": "texte"}, inplace=True)
#%% In[ ]:
## %% Supprimer les colonnes non nécessaires
del ig_reels_df['media_metadata']
del ig_reels_df['cross_post_source']
del ig_reels_df['dubbing_info']
#%% In[ ]:
## %% Remplacer les valeurs NaN par des chaînes vides
ig_reels_df.fillna(value="", inplace=True)
#%% In[ ]:
## %% Supprimer les doublons basés sur le texte et la date de création
ig_reels_df.drop_duplicates(subset=['texte', 'creation_timestamp'], inplace=True)
#%% In[ ]:
# Filter empty texte
## %% Filtrer les reels avec un texte vide
ig_reels_df = ig_reels_df[~ig_reels_df['texte'].str.strip().eq('')]
#%% In[ ]:
## %% Envoyer les données à la base de données
documents_to_database(ig_reels_df)

View file

@ -6,47 +6,48 @@ from pathlib import Path
from utils.documents_to_database import documents_to_database
from utils.convert_encoding_meta import convert_encoding_meta
#%% In[ ]:
# Get the current file's directory
## %% Obtenir le répertoire du fichier courant
# Obtenir le répertoire du fichier courant
try:
# This will work when running as a script
# Ceci fonctionnera lors de l'exécution en tant que script
script_dir = Path(__file__).parent.parent
except NameError:
# This will work in interactive environments
# Ceci fonctionnera dans des environnements interactifs
script_dir = Path().absolute()
project_root = script_dir
instagram_data_path = os.path.join(project_root, 'import_data', 'data', 'Instagram', 'content', 'stories.json')
## %% Lire et parser le fichier JSON des stories Instagram
with open(instagram_data_path, "r", encoding="raw-unicode-escape") as posts:
stories_json = json.loads(convert_encoding_meta(posts.read()))
#%% In[ ]:
## %% Créer un DataFrame à partir des données des stories
ig_stories_df = pd.DataFrame(stories_json['ig_stories'])
#%% In[ ]:
## %% Ajouter des colonnes supplémentaires au DataFrame
ig_stories_df['index'] = "rs_instagram_content"
ig_stories_df['type'] = "stories"
ig_stories_df['network'] = "Instagram"
ig_stories_df['chemin'] = instagram_data_path
#%% In[ ]:
## %% Renommer la colonne 'title' en 'texte'
ig_stories_df.rename(columns={"title": "texte"}, inplace=True)
#%% In[ ]:
## %% Supprimer les colonnes non nécessaires
del ig_stories_df['media_metadata']
del ig_stories_df['cross_post_source']
del ig_stories_df['ai_stickers']
del ig_stories_df['dubbing_info']
#%% In[ ]:
## %% Remplacer les valeurs NaN par des chaînes vides
ig_stories_df.fillna(value="", inplace=True)
#%% In[ ]:
## %% Supprimer les doublons basés sur le texte et la date de création
ig_stories_df.drop_duplicates(subset=['texte', 'creation_timestamp'], inplace=True)
#%% In[ ]:
# Filter empty texte
## %% Filtrer les stories avec un texte vide
ig_stories_df = ig_stories_df[~ig_stories_df['texte'].str.strip('\n').str.strip().eq('')]
#%% In[ ]:
## %% Envoyer les données à la base de données
documents_to_database(ig_stories_df)

View file

@ -6,22 +6,23 @@ from pathlib import Path
from utils.documents_to_database import documents_to_database
from utils.convert_encoding_meta import convert_encoding_meta
#%% In[ ]:
# Get the current file's directory
## %% Obtenir le répertoire du fichier courant
# Obtenir le répertoire du fichier courant
try:
# This will work when running as a script
# Ceci fonctionnera lors de l'exécution en tant que script
script_dir = Path(__file__).parent.parent
except NameError:
# This will work in interactive environments
# Ceci fonctionnera dans des environnements interactifs
script_dir = Path().absolute()
project_root = script_dir
instagram_data_path = os.path.join(project_root, 'import_data', 'data', 'Instagram', 'comments', 'post_comments_1.json')
## %% Lire et parser le fichier JSON des commentaires Instagram
with open(instagram_data_path, "r", encoding="raw-unicode-escape") as posts:
post_comments_1 = json.loads(convert_encoding_meta(posts.read()))
#%% In[ ]:
## %% Extraire les données pertinentes de chaque commentaire
ig_comments = []
for comment in post_comments_1:
ig_comments.append({"texte": comment['string_map_data']['Comment']['value'],
@ -31,18 +32,18 @@ for comment in post_comments_1:
"type": "comments",
"network": "Instagram"})
#%% In[ ]:
## %% Créer un DataFrame à partir des données extraites
ig_comments_df = pd.DataFrame(ig_comments)
#%% In[ ]:
## %% Remplacer les valeurs NaN par des chaînes vides
ig_comments_df.fillna(value="", inplace=True)
#%% In[ ]:
## %% Supprimer les doublons basés sur le texte et la date de création
ig_comments_df.drop_duplicates(subset=['texte', 'creation_timestamp'], inplace=True)
#%% In[ ]:
# Filter empty texte
## %% Filtrer les commentaires avec un texte vide
# Filtrer les textes vides
ig_comments_df = ig_comments_df[~ig_comments_df['texte'].str.strip('\n').str.strip().eq('')]
#%% In[ ]:
## %% Envoyer les données à la base de données
documents_to_database(ig_comments_df)

View file

@ -6,22 +6,23 @@ from pathlib import Path
from utils.documents_to_database import documents_to_database
from utils.convert_encoding_meta import convert_encoding_meta
#%% In[ ]:
# Get the current file's directory
## %% Obtenir le répertoire du fichier courant
# Obtenir le répertoire du fichier courant
try:
# This will work when running as a script
# Ceci fonctionnera lors de l'exécution en tant que script
script_dir = Path(__file__).parent.parent
except NameError:
# This will work in interactive environments
# Ceci fonctionnera dans des environnements interactifs
script_dir = Path().absolute()
project_root = script_dir
instagram_data_path = os.path.join(project_root, 'import_data', 'data', 'Instagram', 'comments', 'reels_comments.json')
## %% Lire et parser le fichier JSON des commentaires Instagram Reels
with open(instagram_data_path, "r", encoding="raw-unicode-escape") as posts:
reels_comments = json.loads(convert_encoding_meta(posts.read()))
#%% In[ ]:
## %% Extraire les données pertinentes de chaque commentaire Reels
ig_comments = []
for comment in reels_comments['comments_reels_comments']:
ig_comments.append({"texte": comment['string_map_data']['Comment']['value'],
@ -31,18 +32,18 @@ for comment in reels_comments['comments_reels_comments']:
"type": "comments",
"network": "Instagram"})
#%% In[ ]:
## %% Créer un DataFrame à partir des données extraites
ig_comments_df = pd.DataFrame(ig_comments)
#%% In[ ]:
## %% Remplacer les valeurs NaN par des chaînes vides
ig_comments_df.fillna(value="", inplace=True)
#%% In[ ]:
## %% Supprimer les doublons basés sur le texte et la date de création
ig_comments_df.drop_duplicates(subset=['texte', 'creation_timestamp'], inplace=True)
#%% In[ ]:
# Filter empty texte
## %% Filtrer les commentaires avec un texte vide
# Filtrer les textes vides
ig_comments_df = ig_comments_df[~ig_comments_df['texte'].str.strip('\n').str.strip().eq('')]
#%% In[ ]:
## %% Envoyer les données à la base de données
documents_to_database(ig_comments_df)

View file

@ -6,22 +6,23 @@ from pathlib import Path
from utils.documents_to_database import documents_to_database
from utils.convert_encoding_meta import convert_encoding_meta
#%% In[ ]:
# Get the current file's directory
## %% Obtenir le répertoire du fichier courant
# Obtenir le répertoire du fichier courant
try:
# This will work when running as a script
# Ceci fonctionnera lors de l'exécution en tant que script
script_dir = Path(__file__).parent.parent
except NameError:
# This will work in interactive environments
# Ceci fonctionnera dans des environnements interactifs
script_dir = Path().absolute()
project_root = script_dir
instagram_data_path = os.path.join(project_root, 'import_data', 'data', 'Instagram', 'threads', 'threads_and_replies.json')
## %% Lire et parser le fichier JSON des posts Threads
with open(instagram_data_path, "r") as posts:
post_comments_1 = json.loads(convert_encoding_meta(posts.read()))
#%% In[ ]:
## %% Extraire les données pertinentes de chaque post Threads
threads_comments = []
for post in post_comments_1['text_post_app_text_posts']:
for element in post['media']:
@ -32,18 +33,18 @@ for post in post_comments_1['text_post_app_text_posts']:
"type": "posts",
"network": "Threads"})
#%% In[ ]:
## %% Créer un DataFrame à partir des données extraites
ig_comments_df = pd.DataFrame(threads_comments)
#%% In[ ]:
## %% Remplacer les valeurs NaN par des chaînes vides
ig_comments_df.fillna(value="", inplace=True)
#%% In[ ]:
## %% Supprimer les doublons basés sur le texte et la date de création
ig_comments_df.drop_duplicates(subset=['texte', 'creation_timestamp'], inplace=True)
#%% In[ ]:
# Filter empty texte
## %% Filtrer les posts avec un texte vide
# Filtrer les textes vides
ig_comments_df = ig_comments_df[~ig_comments_df['texte'].str.strip('\n').str.strip().eq('')]
#%% In[ ]:
## %% Envoyer les données à la base de données
documents_to_database(ig_comments_df)

View file

@ -6,13 +6,13 @@ from pathlib import Path
from utils.documents_to_database import documents_to_database
#%% In[ ]:
# Get the current file's directory
## %% Obtenir le répertoire du fichier courant
# Obtenir le répertoire du fichier courant
try:
# This will work when running as a script
# Ceci fonctionnera lors de l'exécution en tant que script
script_dir = Path(__file__).parent.parent
except NameError:
# This will work in interactive environments
# Ceci fonctionnera dans des environnements interactifs
script_dir = Path().absolute()
project_root = script_dir
@ -20,39 +20,38 @@ linkedin_data_path = os.path.join(project_root, 'import_data', 'data', 'LinkedIn
raw_shares = pd.read_csv(linkedin_data_path)
#%% In[ ]:
## %% Ajouter des colonnes d'identification au DataFrame
raw_shares['index'] = "rs_linkedin_shares"
raw_shares['type'] = "posts"
raw_shares['network'] = "LinkedIn"
raw_shares['chemin'] = linkedin_data_path
#%% In[ ]:
## %% Convertir la date en timestamp et supprimer la colonne originale
raw_shares["creation_timestamp"] = raw_shares["Date"].apply(
lambda x: int(datetime.datetime.fromisoformat(x).timestamp())
)
del raw_shares["Date"]
#%% In[ ]:
## %% Renommer les colonnes pour correspondre au format standard
raw_shares.rename(columns={"ShareLink": "uri", "ShareCommentary": "texte"}, inplace=True)
#%% In[ ]:
## %% Convertir la colonne 'texte' en type string
raw_shares["texte"] = raw_shares["texte"].apply(lambda x: str(x))
#%% In[ ]:
## %% Supprimer les colonnes non nécessaires
del raw_shares["SharedUrl"]
del raw_shares["MediaUrl"]
del raw_shares["Visibility"]
#%% In[ ]:
## %% Remplacer les valeurs NaN par des chaînes vides
raw_shares.fillna(value="", inplace=True)
#%% In[ ]:
## %% Supprimer les doublons basés sur le texte et la date de création
raw_shares.drop_duplicates(subset=['texte', 'creation_timestamp'], inplace=True)
#%% In[ ]:
# Filter empty texte
## %% Filtrer les partages avec un texte vide
# Filtrer les textes vides
raw_shares = raw_shares[~raw_shares['texte'].str.strip('\n').str.strip().eq('')]
#%% In[ ]:
## %% Envoyer les données à la base de données
documents_to_database(raw_shares)

View file

@ -6,19 +6,19 @@ from pathlib import Path
from utils.documents_to_database import documents_to_database
#%% In[ ]:
# Get the current file's directory
## %% Obtenir le répertoire du fichier courant
# Obtenir le répertoire du fichier courant
try:
# This will work when running as a script
# Ceci fonctionnera lors de l'exécution en tant que script
script_dir = Path(__file__).parent.parent
except NameError:
# This will work in interactive environments
# Ceci fonctionnera dans des environnements interactifs
script_dir = Path().absolute()
project_root = script_dir
linkedin_data_path = os.path.join(project_root, 'import_data', 'data', 'LinkedIn', 'comments', 'Comments.csv')
#%% In[ ]:
## %% Lire et nettoyer les données CSV des commentaires LinkedIn
raw_comments_csv = pd.read_csv(linkedin_data_path,
escapechar='\\',
skipinitialspace=True)
@ -26,33 +26,33 @@ raw_comments_csv['MessageFix'] = raw_comments_csv['Message'].str.replace(r'[\r\n
raw_comments_csv = raw_comments_csv.drop(columns=['Message'])
raw_comments = raw_comments_csv[(raw_comments_csv['MessageFix'] != "")].drop_duplicates()
#%% In[ ]:
## %% Ajouter des colonnes d'identification au DataFrame
raw_comments['index'] = "rs_linkedin_comments"
raw_comments['type'] = "comments"
raw_comments['network'] = "LinkedIn"
raw_comments['chemin'] = linkedin_data_path
#%% In[ ]:
## %% Convertir la date en timestamp et supprimer la colonne originale
raw_comments["creation_timestamp"] = raw_comments["Date"].apply(
lambda x: int(datetime.datetime.fromisoformat(x).timestamp())
)
del raw_comments["Date"]
#%% In[ ]:
## %% Renommer les colonnes pour correspondre au format standard
raw_comments.rename(columns={"Link": "uri", "MessageFix": "texte"}, inplace=True)
#%% In[ ]:
## %% Ajouter le chemin du fichier source
raw_comments["chemin"] = linkedin_data_path
#%% In[ ]:
## %% Remplacer les valeurs NaN par des chaînes vides
raw_comments.fillna(value="", inplace=True)
#%% In[ ]:
## %% Supprimer les doublons basés sur le texte et la date de création
raw_comments.drop_duplicates(subset=['texte', 'creation_timestamp'], inplace=True)
#%% In[ ]:
# Filter empty texte
## %% Filtrer les commentaires avec un texte vide
# Filtrer les textes vides
raw_comments = raw_comments[~raw_comments['texte'].str.strip('\n').str.strip().eq('')]
#%% In[ ]:
## %% Envoyer les données à la base de données
documents_to_database(raw_comments)

View file

@ -10,13 +10,13 @@ from pathlib import Path
from utils.documents_to_database import documents_to_database
#%% In[ ]:
# Get the current file's directory
## %% Obtenir le répertoire du fichier courant
# Obtenir le répertoire du fichier courant
try:
# This will work when running as a script
# Ceci fonctionnera lors de l'exécution en tant que script
script_dir = Path(__file__).parent.parent
except NameError:
# This will work in interactive environments
# Ceci fonctionnera dans des environnements interactifs
script_dir = Path().absolute()
project_root = script_dir
@ -25,22 +25,21 @@ wordpress_xml_path = os.path.join(project_root, 'import_data', 'data', 'Wordpres
with open(wordpress_xml_path, "r") as xml_file:
wordpress_xml = xml_file.read()
#%% In[ ]:
## %% Convertir le XML en dictionnaire Python
wordpress_dict = xmltodict.parse(wordpress_xml)
#%% In[ ]:
## %% Créer un DataFrame à partir des éléments du canal RSS
items_df = pd.DataFrame(wordpress_dict['rss']['channel']['item'])
#%% In[ ]:
## %% Filtrer les éléments pour ne garder que les pages et les articles publiés
items_df_filter = items_df[
(items_df['wp:post_type'].isin(['page', 'post'])) & (items_df['wp:status'] == 'publish')].copy()
#%% In[ ]:
## %% Convertir la date de publication en timestamp
items_df_filter['creation_timestamp'] = items_df_filter['wp:post_date'].apply(
lambda x: int(datetime.datetime.fromisoformat(x).timestamp()))
#%% In[ ]:
## %% Définir une fonction pour convertir le contenu WordPress en Markdown
def wp_to_markdown(x):
try:
md_text = re.sub(r'\n+', ' ', markdownify.markdownify(x, heading_style='ATX')).strip()
@ -50,22 +49,21 @@ def wp_to_markdown(x):
pass
return md_text
#%% In[ ]:
## %% Appliquer la conversion Markdown au contenu
items_df_filter['texte'] = items_df_filter['content:encoded'].apply(lambda x: wp_to_markdown(x))
#%% In[ ]:
## %% Renommer les colonnes pour correspondre au format standard
items_df_filter.rename(columns={"link": "uri", "wp:post_type": "type"}, inplace=True)
#%% In[ ]:
## %% Ajouter des colonnes d'identification
items_df_filter['index'] = "rs_wordpress_jevalideca"
items_df_filter['network'] = "Wordpress"
items_df_filter['chemin'] = wordpress_xml_path
#%% In[ ]:
## %% Remplacer les valeurs NaN par des chaînes vides
items_df_filter.fillna(value="", inplace=True)
#%% In[ ]:
## %% Envoyer les données à la base de données
documents_to_database(items_df_filter[['title',
'uri',
'type',

View file

@ -3,7 +3,8 @@ from pathlib import Path
from tqdm import tqdm
from faster_whisper import WhisperModel
# Get the current file's directory
## %% Configuration du chemin et des répertoires
# Obtenir le répertoire du fichier courant
try:
script_dir = Path(__file__).parent.parent
except NameError:
@ -13,15 +14,17 @@ project_root = script_dir
podcast_dir = os.path.join(project_root, 'import_data', 'data', 'Podcast', 'audio')
output_dir = os.path.join(project_root, 'import_data', 'data', 'Podcast', 'transcripts')
# Create output directory if it doesn't exist
# Créer le répertoire de sortie s'il n'existe pas
os.makedirs(output_dir, exist_ok=True)
# Load Faster-Whisper model
## %% Chargement du modèle Faster-Whisper
# Charger le modèle Faster-Whisper
model = WhisperModel("small", device="cpu", compute_type="int8")
## %% Définition des fonctions de transcription et de création de fichiers SRT
def transcribe_audio(audio_path):
l_segments, _ = model.transcribe(audio_path, language="fr", task="transcribe")
return list(l_segments) # Convert generator to list
return list(l_segments) # Convertir le générateur en liste
def create_srt(l_segments, output_path):
with open(output_path, 'w', encoding='utf-8') as f:
@ -38,15 +41,16 @@ def format_time(seconds):
milliseconds = int((seconds % 1) * 1000)
return f"{hours:02d}:{minutes:02d}:{seconds:02d},{milliseconds:03d}"
# Process all MP3 files
## %% Traitement de tous les fichiers MP3
# Traiter tous les fichiers MP3
for filename in tqdm(os.listdir(podcast_dir)):
if filename.endswith(".mp3"):
mp3_path = os.path.join(podcast_dir, filename)
srt_path = os.path.join(output_dir, filename.replace(".mp3", ".srt"))
print(f"Transcribing {filename}...")
print(f"Transcription de {filename}...")
segments = transcribe_audio(mp3_path)
create_srt(segments, srt_path)
print(f"Transcription saved to {srt_path}")
print(f"Transcription sauvegardée dans {srt_path}")
print("All podcasts have been transcribed.")
print("Tous les podcasts ont été transcrits.")

View file

@ -1,17 +1,28 @@
altair==5.5.0
annotated-types==0.7.0
attrs==24.2.0
av==13.1.0
beautifulsoup4==4.12.3
blinker==1.9.0
blis==1.0.1
cachetools==5.5.0
catalogue==2.0.10
certifi==2024.8.30
charset-normalizer==3.4.0
click==8.1.7
cloudpathlib==0.20.0
coloredlogs==15.0.1
confection==0.1.5
contourpy==1.3.1
ctranslate2==4.5.0
cycler==0.12.1
cymem==2.0.10
en_core_web_sm @ https://github.com/explosion/spacy-models/releases/download/en_core_web_sm-3.8.0/en_core_web_sm-3.8.0-py3-none-any.whl#sha256=1932429db727d4bff3deed6b34cfc05df17794f4a52eeb26cf8928f7c1a0fb85
faster-whisper==1.1.0
filelock==3.16.1
flatbuffers==24.3.25
fonttools==4.55.0
fr_core_news_sm @ https://github.com/explosion/spacy-models/releases/download/fr_core_news_sm-3.8.0/fr_core_news_sm-3.8.0-py3-none-any.whl#sha256=7d6ad14cd5078e53147bfbf70fb9d433c6a3865b695fda2657140bbc59a27e29
fsspec==2024.10.0
gitdb==4.0.11
GitPython==3.1.43
@ -21,22 +32,33 @@ idna==3.10
Jinja2==3.1.4
jsonschema==4.23.0
jsonschema-specifications==2024.10.1
kiwisolver==1.4.7
langcodes==3.5.0
langdetect==1.0.9
language_data==1.3.0
marisa-trie==1.2.1
markdown-it-py==3.0.0
markdownify==0.11.6
MarkupSafe==3.0.2
matplotlib==3.9.3
mdurl==0.1.2
mpmath==1.3.0
murmurhash==1.0.11
narwhals==1.15.0
numpy==1.26.4
numpy==2.0.2
onnxruntime==1.20.1
packaging==24.2
pandas==2.2.0
pandas==2.2.3
pillow==11.0.0
plotly==5.24.1
preshed==3.0.9
protobuf==5.29.0
pyarrow==17.0.0
pydantic==2.10.2
pydantic_core==2.27.1
pydeck==0.9.1
Pygments==2.18.0
pyparsing==3.2.0
python-dateutil==2.9.0.post0
python-dotenv==1.0.1
pytz==2024.2
@ -46,18 +68,30 @@ requests==2.31.0
rich==13.9.4
rpds-py==0.21.0
setuptools==75.6.0
shellingham==1.5.4
six==1.16.0
smart-open==7.0.5
smmap==5.0.1
soupsieve==2.6
spacy==3.8.2
spacy-language-detection==0.2.1
spacy-legacy==3.0.12
spacy-loggers==1.0.5
srsly==2.4.8
streamlit==1.40.2
sympy==1.13.3
tenacity==9.0.0
thinc==8.3.2
tokenizers==0.21.0
toml==0.10.2
tornado==6.4.2
tqdm==4.67.1
typer==0.14.0
typesense==0.21.0
typing_extensions==4.12.2
tzdata==2024.2
urllib3==2.2.3
wasabi==1.1.3
weasel==0.4.1
wrapt==1.17.0
xmltodict==0.13.0

View file

@ -1,11 +1,72 @@
import tqdm
import spacy
from spacy.language import Language
from spacy_language_detection import LanguageDetector
from urlextract import URLExtract
import requests
from .typesense_client import client
# Load spaCy models
nlp_en = spacy.load("en_core_web_sm")
nlp_fr = spacy.load("fr_core_news_sm")
# Create language detector
def get_lang_detector(nlp, name):
return LanguageDetector(seed=42)
Language.factory("language_detector", func=get_lang_detector)
nlp_en.add_pipe("language_detector", last=True)
# Initialize URL extractor
extractor = URLExtract()
def count_words(text, lang):
if lang == 'en':
doc = nlp_en(text)
elif lang == 'fr':
doc = nlp_fr(text)
else:
# Default to English if language is not supported
doc = nlp_en(text)
# Count words excluding stopwords
word_count = len([token for token in doc if not token.is_stop and not token.is_punct])
return word_count
def resolve_shortened_url(url):
try:
response = requests.head(url, allow_redirects=True, timeout=5)
return response.url
except:
return url
def extract_and_resolve_urls(text):
urls = extractor.find_urls(text)
resolved_urls = [resolve_shortened_url(url) for url in urls]
return list(set(resolved_urls)) # Remove duplicates
def documents_to_database(documents_list, os_client=client):
try:
for document in tqdm.tqdm(documents_list.to_dict(orient='records')):
# Detect language
doc = nlp_en(document['texte'])
lang = doc._.language['language']
# Count words
word_count = count_words(document['texte'], lang)
# Extract and resolve URLs
urls = extract_and_resolve_urls(document['texte'])
# Add language, word count, and URLs to the document
document['langue'] = lang
document['nombre_de_mots'] = word_count
document['texte_urls'] = urls
# Create document in Typesense
os_client.collections['social_media_posts'].documents.create(document)
print(f"Successfully inserted {len(documents_list)} documents.")
except Exception as e:
print(f"Error inserting documents: {str(e)}")

View file

@ -0,0 +1,25 @@
import subprocess
import os
def run_streamlit_app():
# Obtenir le chemin du répertoire courant
current_dir = os.path.dirname(os.path.abspath(__file__))
# Construire le chemin vers streamlit_app.py
app_path = os.path.join(current_dir, 'streamlit_app.py')
# Commande pour exécuter l'application Streamlit
command = f"streamlit run {app_path}"
try:
# Exécuter la commande
subprocess.run(command, shell=True, check=True)
except subprocess.CalledProcessError as e:
print(f"Erreur lors du lancement de l'application Streamlit : {e}")
except Exception as e:
print(f"Une erreur inattendue s'est produite : {e}")
if __name__ == "__main__":
run_streamlit_app()

View file

@ -77,12 +77,15 @@ client = typesense.Client({
'connection_timeout_seconds': 2
})
def rechercher_documents(cette_requete, ces_filtres=None, facette_par=None):
parametres_recherche = {
'q': cette_requete,
'query_by': 'texte',
'sort_by': 'creation_timestamp:desc',
'per_page': 100,
'query_by': 'texte,embedding',
'sort_by': '_text_match(buckets: 10):desc,creation_timestamp:desc',
"exclude_fields": "embedding",
"prefix": "false",
'per_page': 10,
'page': 1
}
@ -92,31 +95,72 @@ def rechercher_documents(cette_requete, ces_filtres=None, facette_par=None):
if facette_par:
parametres_recherche['facet_by'] = facette_par
st.write("Search parameters:", parametres_recherche)
all_results = []
try:
while True:
results = client.collections['social_media_posts'].documents.search(parametres_recherche)
all_results.extend(results['hits'])
if len(all_results) >= results['found']:
break
parametres_recherche['page'] += 1
results['hits'] = all_results
return results
except Exception as e:
st.error(f"Error during search: {str(e)}") # Error handling
# Récupérer dynamiquement les réseaux depuis Typesense
def get_networks():
search_parameters = {
'q': '*',
'query_by': 'network',
'facet_by': 'network',
'per_page': 0
}
try:
results = client.collections['social_media_posts'].documents.search(search_parameters)
networks = [facet['value'] for facet in results['facet_counts'][0]['counts']]
return networks
except Exception as e:
st.error(f"Erreur lors de la récupération des réseaux : {str(e)}")
return ['Facebook', 'Instagram', 'Threads', 'LinkedIn', 'WordPress'] # Valeurs par défaut en cas d'erreur
# Interface utilisateur Streamlit
st.title('Recherche dans tes contenus publiés sur le web')
# Indiquer le nombre total de documents indexés dans Typesense
collections = client.collections.retrieve()
total_documents = sum(collection['num_documents'] for collection in collections)
st.write(f"Total documents indexés: {total_documents}")
# Champ de recherche
requete = st.text_input('Entrez votre requête de recherche')
# Filtre de plage de dates
col1, col2 = st.columns(2)
date_debut = col1.date_input('Date de début')
date_fin = col2.date_input('Date de fin')
date_debut = col1.date_input('Date de début', value=datetime.now() - pd.DateOffset(years=1))
date_fin = col2.date_input('Date de fin', value=datetime.now())
# Filtre de réseau social
reseaux = ['Facebook', 'Instagram', 'Threads' ,'LinkedIn', 'WordPress']
reseaux_selectionnes = st.multiselect('Sélectionnez les réseaux sociaux', reseaux)
reseaux = get_networks()
reseaux_selectionnes = st.multiselect('Sélectionnez les réseaux sociaux', reseaux,
default=reseaux[0] if reseaux else None)
# Filtre de langue
langues = [('fr', 'Français'), ('en', 'English')]
langue_selectionnees = st.multiselect('Sélectionnez la langue',
options=[label for code, label in langues],
format_func=lambda x: x,
default='Français')
# Convertir les étiquettes en codes de langage
selected_lang_codes = [code for code, label in langues if label in langue_selectionnees]
if st.button('Rechercher'):
# Préparer les filtres
@ -124,8 +168,9 @@ if st.button('Rechercher'):
fin_datetime = datetime.combine(date_fin, time.max)
filtre_date = f"creation_timestamp:[{int(debut_datetime.timestamp())}..{int(fin_datetime.timestamp())}]"
filtre_reseau = f"network:[{' '.join(reseaux_selectionnes)}]" if reseaux_selectionnes else None
filtre_langue = f"langue:[{' '.join(selected_lang_codes)}]" if selected_lang_codes else None
filtres = ' && '.join(filter(None, [filtre_date, filtre_reseau]))
filtres = ' && '.join(filter(None, [filtre_date, filtre_reseau, filtre_langue]))
# Effectuer la recherche pour tous les résultats
tous_resultats = rechercher_documents(requete, ces_filtres=filtres, facette_par='network')
@ -134,13 +179,43 @@ if st.button('Rechercher'):
# Afficher le nombre total de résultats
st.subheader(f"Trouvé {nombre_total_resultats} résultats")
# Affichage des résultats (100 maximum)
st.subheader("Résultats de la recherche")
for hit in tous_resultats['hits'][:100]: # Limite à 100 résultats
col1, col2 = st.columns([1, 4])
with col1:
st.markdown(f"**{hit['document']['network']}**")
st.markdown(
f"**{datetime.fromtimestamp(hit['document']['creation_timestamp']).strftime('%Y-%m-%d %H:%M:%S')}**")
# Étiquettes de couleur pour les facettes
st.markdown(f"""
<span style="background-color: #007bff; color: white; padding: 2px 6px; border-radius: 10px;">
{hit['document']['langue']}
</span>
""", unsafe_allow_html=True)
with col2:
# Boîte de texte pour le contenu
st.text_area("Contenu", hit['document']['texte'], height=150)
# URI en dessous
if 'uri' in hit['document']:
st.markdown(f"[Lien vers le post original]({hit['document']['uri']})")
st.markdown("---")
# Afficher les facettes
if 'facet_counts' in tous_resultats:
facettes_reseau = {facette['value']: facette['count'] for facette in tous_resultats['facet_counts'][0]['counts']}
facettes_reseau = {facette['value']: facette['count'] for facette in
tous_resultats['facet_counts'][0]['counts']}
st.subheader("Résultats par Réseau")
# Graphique en camembert pour montrer la distribution des résultats par réseau social
fig = px.pie(values=list(facettes_reseau.values()), names=list(facettes_reseau.keys()), title="Distribution par Réseau")
fig = px.pie(values=list(facettes_reseau.values()), names=list(facettes_reseau.keys()),
title="Distribution par Réseau")
# Ce graphique montre la proportion de résultats pour chaque réseau social
st.plotly_chart(fig)
@ -180,21 +255,3 @@ if st.button('Rechercher'):
df_pivot['mois'] = df_pivot['mois'].dt.strftime('%B %Y')
# Ce tableau fournit un résumé détaillé du nombre de posts par réseau social pour chaque mois
st.dataframe(df_pivot)
# Créer une chaîne pour contenir tous les résultats
all_results_text = ""
# Peupler la chaîne avec tous les résultats
for hit in tous_resultats['hits']:
horodatage = hit['document']['creation_timestamp']
all_results_text += f"**{hit['document']['network']}** - {datetime.fromtimestamp(horodatage).strftime('%Y-%m-%d %H:%M:%S')}\n\n"
paragraphes = hit['document']['texte'].split('\n')
for paragraphe in paragraphes:
if paragraphe.strip():
all_results_text += f"{paragraphe}\n\n"
all_results_text += "---\n\n"
# Afficher les résultats dans une zone de texte
st.text_area("Résultats de la recherche", all_results_text, height=400)

View file

@ -0,0 +1,106 @@
import typesense
from dotenv import load_dotenv
import os
from datetime import datetime
import pandas as pd
## %% Configuration initiale
# Charger les variables d'environnement et initialiser le client Typesense
load_dotenv()
# Initialiser le client Typesense
client = typesense.Client({
'nodes': [{
'host': os.getenv('TYPESENSE_HOST', 'localhost'),
'port': os.getenv('TYPESENSE_PORT', '8108'),
'protocol': os.getenv('TYPESENSE_PROTOCOL', 'http')
}],
'api_key': os.getenv('TYPESENSE_API_KEY'),
'connection_timeout_seconds': 2
})
## %% Fonction pour obtenir les statistiques d'index
def get_index_stats():
collections = client.collections.retrieve()
total_documents = sum(collection['num_documents'] for collection in collections)
print(f"Nombre total de documents indexés : {total_documents}")
print("\nStatistiques par collection :")
for collection in collections:
print(f" {collection['name']}: {collection['num_documents']} documents")
## %% Fonction pour obtenir la distribution par réseau social
def get_network_distribution():
search_parameters = {
'q': '*',
'query_by': 'texte',
'facet_by': 'network',
'per_page': 0
}
result = client.collections['social_media_posts'].documents.search(search_parameters)
network_counts = {facet['value']: facet['count'] for facet in result['facet_counts'][0]['counts']}
print("\nDistribution par réseau social :")
for network, count in network_counts.items():
print(f" {network}: {count}")
## %% Fonction pour obtenir la distribution temporelle
def get_temporal_distribution():
search_parameters = {
'q': '*',
'query_by': 'texte',
'per_page': 250, # Maximum autorisé par Typesense
'sort_by': 'creation_timestamp:asc',
'page': 1
}
all_dates = []
while True:
result = client.collections['social_media_posts'].documents.search(search_parameters)
if not result['hits']:
break
dates = [datetime.fromtimestamp(hit['document']['creation_timestamp']) for hit in result['hits']]
all_dates.extend(dates)
search_parameters['page'] += 1
df = pd.DataFrame({'date': all_dates})
df['month'] = df['date'].dt.to_period('M')
monthly_counts = df['month'].value_counts().sort_index()
print("\nDistribution temporelle (par mois) :")
for month, count in monthly_counts.items():
print(f" {month}: {count}")
## %% Fonction pour obtenir un échantillon de documents
def get_document_sample(sample_size=5):
search_parameters = {
'q': '*',
'query_by': 'texte',
'per_page': sample_size,
'sort_by': 'creation_timestamp:desc'
}
result = client.collections['social_media_posts'].documents.search(search_parameters)
print(f"\nÉchantillon de {sample_size} documents récents :")
for hit in result['hits']:
doc = hit['document']
print(f"\n ID: {doc.get('id', 'N/A')}")
print(f" Réseau: {doc.get('network', 'N/A')}")
print(f" Type: {doc.get('type', 'N/A')}")
print(f" Date: {datetime.fromtimestamp(doc['creation_timestamp']).strftime('%Y-%m-%d %H:%M:%S')}")
print(f" Texte: {doc.get('texte', 'N/A')[:100]}...") # Afficher les 100 premiers caractères du texte
print(f" URL: {doc.get('uri', 'N/A')}")
print(f" Langue: {doc.get('langue', 'N/A')}")
## %% Point d'entrée principal du script
if __name__ == "__main__":
get_index_stats()
get_network_distribution()
get_temporal_distribution()
get_document_sample()