Aller au contenu principal

Interface Web Oratio

attention

ATTENTION Le projet IlaaS et le service Oratio sont encore en cours de finalisation.

Des éléments sont susceptibles de changer. Il est important de noter que pour le moment :

  • Des fonctionnalités peuvent changer, évoluer ou cesser de fonctionner sans préavis.
  • Des modèles peuvent être ajoutés ou supprimés selon les besoins du projet.
  • Le système peut ne pas encore supporter une forte charge de demandes simultanées.
  • La stabilité complète ne sera atteinte qu'à la fin de la mise en place du projet.
  • Cette API ne doit PAS être utilisée pour des applications en production pour le moment. Utilisez pour le moment cet outil en connaissance de cause, uniquement pour des expérimentations, des tests ou des projets de recherche.

Qu'est-ce qu'Oratio Web ?

Oratio Web est l’interface graphique (GUI) qui permet aux utilisateurs de l’Université de Reims Champagne-Ardenne (URCA) d’interagir simplement avec des modèles d’intelligence artificielle générative (LLM) hébergés sur l’infrastructure ROMEO.
Elle repose sur le logiciel open source OpenWebUI, customisé et intégré au contexte académique URCA et au réseau national ILaaS.

  • But principal : Permettre à tous les membres de l’URCA d’utiliser la puissance des modèles LLM disponibles (chat, rédaction, résumés, Q&A, etc.) — sans avoir à installer quoi que ce soit, ni écrire une ligne de code.
  • Avantage déterminant : Vos données sont protégées et restent souveraines : elles ne quittent pas l'université, ne sont utilisées à aucun autre usage et, en particulier, ne servent jamais à entraîner ou améliorer les modèles d'IA mis à disposition via Oratio Web. Nous nous engageons à ne pas exploiter, ni analyser vos contenus ou historiques de conversations.

Fonctionnalités principales

  • Accès sécurisé par compte URCA (SSO institutionnel)
  • Utilisation graphique simple : boîte de chat, historique, gestion de projets/dossiers, etc.
  • Support multilingue (français, anglais, …)
  • Accès à plusieurs modèles LLM (Oratio/ROMEO et réseau IlaaS)
  • Upload de documents : interrogez des PDF ou des textes longs (selon limites techniques en vigueur)
  • Paramétrage avancé (température, taille de réponse, "system prompt", …)
  • Mode RAG : possibilité de questionner vos propres documents (via embeddings, voir documentation API pour plus de détails techniques)
  • Streaming de texte : la réponse s'affiche au fur et à mesure
  • Sécurité et confidentialité de vos données (aucune utilisation secondaire, pas d'entraînement sur vos textes)

À qui s'adresse Oratio Web ?

  • Utilisateurs visés : Étudiants, enseignants, chercheurs et personnels de l’URCA qui souhaitent bénéficier d’outils d’IA performants pour la rédaction, la synthèse, l’aide à la compréhension ou la génération de contenu — sans prérequis technique.

⚠️ REMARQUE :
L’accès est réservé aux comptes URCA (adresse e-mail universitaire).
Les connexions depuis l’extérieur nécessitent une authentification SSO URCA.


Fonctionnement général détaillé

  1. Connexion

    Rendez-vous sur oratio.univ-reims.fr et connectez-vous avec vos identifiants URCA. L'accès authentifié garantit la sécurité et la confidentialité de vos échanges.

  2. Choix et sélection d’un modèle de langage (LLM)

    L’étape clé avant de commencer une conversation consiste à sélectionner le modèle d’IA que vous souhaitez interroger. Oratio Web vous présente, dans un menu déroulant ou une liste, l’ensemble des modèles disponibles à l’instant sur l’infrastructure, avec leur nom parfois une brève description en infobulle.

    Comment bien choisir son modèle ?

    • Origine et préfixe du modèle :
      • Les modèles dont le nom commence par romeo. sont hébergés localement à l’URCA ou sur la plate-forme ROMEO. Ils garantissent que vos données ne sortent pas du périmètre universitaire.
      • Les modèles préfixés ilaas. proviennent du réseau national académique ILaaS. Ils accèdent à des capacités élargies grâce à la mutualisation de ressources entre plusieurs universités, tout en restant sur des serveurs français et souverains.
    • Quelques modèles fréquemment proposés :
      • GPT-OSS-120B : Modèle open source polyvalent, très performant sur des tâches générales, y compris des questions de raisonnement, rédaction ou synthèse. Plusieurs “niveaux” sont parfois proposés pour faire varier la rapidité et la profondeur d’analyse :
        • gpt-oss-120B-Low : débit élevé, réponses succinctes, utile pour des questions rapides ou du brainstorming simple.
        • gpt-oss-120B-Medium : compromis entre vitesse et qualité, recommandé pour la majorité des cas d’usage, y compris la rédaction de textes ou de synthèses moyennes.
        • gpt-oss-120B-High-Reasoning : version la plus poussée, privilégiée pour des réponses complexes, analyses, ou comparaisons avancées. Ce mode sacrifie éventuellement la rapidité pour la qualité du raisonnement.
      • Mistral Small 3.2 : Modèle spécialisé dans la rapidité avec de bonnes performances en français et anglais, idéal pour du dialogue fluide, de l’assistance à la rédaction, ou de la reformulation de messages.
      • Qwen 3 : Orienté vers la compréhension multilingue, efficace pour la traduction, la clarification de concepts techniques, ou le traitement de textes non-francophones.
      • Llama (3/2/etc.) : Bon dans les tâches créatives, l’explication de concepts, la synthèse, parfois recommandé pour les usages éducatifs ou la génération de code.
    • Critères pour faire votre choix :
      • Nature de la tâche : Pour un résumé d’article, la rédaction d’un email ou d’un compte-rendu, misez sur gpt-oss-120B-Medium, ou Mistral Small. Pour un point technique ou une question complexe, privilégiez gpt-oss-120B-High-Reasoning ou un modèle "large".

      • Langue d’échange souhaitée : Si vous écrivez en français, la plupart des modèles proposés sont adaptés, mais les modèles comme Qwen 3 ou Mistral sont mieux optimisés pour le multilinguisme ou certaines variantes de syntaxe.

      • Confidentialité absolue nécessaire ? Préférez les modèles ROMEO internes (romeo.) si vos données sont particulièrement sensibles.

      • Disponibilité/performances : Certains modèles peuvent être temporairement surchargés et ne pas répondre ou répondre lentement, vous pouvez en choisir un autre en attendant où attendre que la charge redescende.

    Astuce : Vous pouvez à tout moment changer de modèle pour la même discussion, ou relancer la requête via un autre modèle pour comparer les performances ou la qualité des réponses. Vous pouvez aussi selectionner plusieurs modèles en même temps avec le petit '+' à coté de la liste, pour avoir une réponse de plusieurs modèles en même temps.

    Processus de sélection dans l’interface

    1. En haut à gauche de l’écran principal, cliquez sur le sélecteur de modèle.
    2. Parcourez la liste classée, lisez éventuellement les infobulles ou descriptions.
    3. Cliquez sur le modèle souhaité pour l’activer : il sera utilisé pour tous vos échanges jusqu’à un nouveau changement.
  3. Conversation

    Interagissez dans la fenêtre de chat, comme avec un assistant personnel. Tapez votre question ou votre texte, et le modèle choisi répondra selon ses capacités, de façon interactive. Vous pouvez continuer la discussion, approfondir le sujet, ou clarifier vos exigences à chaque étape.

  4. Personnalisation avancée

    Avant d'envoyer une requête, vous pouvez régler en cliquant du le bouton de settings en haut à droite de nombreux paramètres, les plus courants sont :

    • Température (niveau de créativité/aléa)
    • Longueur maximale de la réponse
    • Système prompt (consignes globales au modèle pour teinter le comportement)
  5. Téléversement de documents (optionnel)

    Ajoutez un ou plusieurs fichiers (PDF, texte) pour permettre au modèle d’analyser ou de synthétiser leur contenu. Les capacités d’analyse documentaire dépendent du modèle sélectionné (certains sont mieux adaptés pour le RAG/QA documentaire).

    Les capacités d'upload de données sont actuellement très limitées, et les fichiers joints pourrons être nettoyés sur Oratio en cas de surcharge de l'espace de stockage.

  6. Organisation de l’historique

    Toutes vos conversations sont archivées, et peuvent être organisées par projet, dossier, ou thème. Vous pouvez les consulter, les exporter, ou les reprendre à tout moment.


Les modèles disponibles en détail

La disponibilité évolue mais vous trouverez généralement :

  • GPT-OSS-120B (Low/Medium/High Reasoning)
  • Mistral Small 3.2
  • Qwen 3
  • Llama (plusieurs versions)
  • Modèles locaux URCA (romeo.)
  • Modèles nationaux ILaaS (ilaas.)

Pour les utilisations avancées ou automatisées, reportez-vous à la documentation technique.


Exemples concrets d’utilisation des modèles

  • GPT-OSS-120B-High-Reasoning : Résumés scientifiques détaillés, explication pas-à-pas, analyse complexe, aide au raisonnement logique.
  • Mistral Small 3.2 : Rédaction rapide de mails, de comptes-rendus ou de messages courts.
  • Qwen 3 : Traduction de paragraphes, explication de concepts en plusieurs langues, lecture de documents en anglais ou espagnol.
  • Llama : Génération créative, brainstorming, aide à la programmation ou correction de code pédagogique.

N’hésitez pas à expérimenter : chaque modèle a ses points forts, et le choix peut faire varier sensiblement la qualité, la concision ou la créativité des réponses.


Liens avec l'API Oratio et ILaaS

  • Oratio Web utilise les mêmes modèles que l’API Oratio : commencez graphiquement, automatisez avec Python ou en ligne de commande.
  • Les modèles IlaaS accessibles dans l’interface sont ceux certifiés par le réseau académique (voir l’architecture et le réseau ILaaS).

Limitations et bonnes pratiques

  • Capacité de calcul partagée : périodes de forte demande = ralentissement possible ; privilégiez alors des modèles plus “légers” ou internes.
  • Pas d’usage “sensibles” ou production : Oratio et IlaaS sont en phase de pré-production, et sont pour le moment inadaptée aux données confidentielles, médicales, juridiques, etc.
  • Respect de la confidentialité : Vos échanges restent internes à l'université, et ne sont jamais utilisés pour ré-entraîner les modèles.