HOAB

History of a bug

Commencer un projet avec Hibernate

Rédigé par gorki Aucun commentaire

Le problème :

Utiliser Hibernate, c'est bien, on gagne du temps, mais encore faut-il se poser les bonnes questions.

Solution :

Voici une liste de questions à se poser :

  • le modèle physique de données existe-t-il ? DDL ?

Si le modèle physique existe, le mapping JPA devra s'adapter, en DDL le modèle physique est généré par hibernate, il peut même être mis à jour par Hibernate.
Il faut cependant toujours vérifier le schéma généré et le faire valider par un DBA (junior, dilettante, senior, guru, ... au choix)
Si c'est à l'application de mettre à jour le modèle de données, des produits plus évolués comme Liquibase sont préférables au DDL hibernate pur.

Préconisation : Modèle physique non géré par Hibernate.

  • les liens dans les JPA doivent-il représenter tous les liens/contraintes de la base de données ?

Quel problème à mettre toutes les relations de la base physique dans les enttités JPA ? Aucun a priori, sauf avec de jeunes développeurs qui vont se restreindre aux relations JPA plutôt que d'inventer des requêtes SQL efficaces qui ne passent pas par les relations JPA.

Exemple : Si A -> B -> C et que C peut-être relier à A par une concaténation de chaine par exemple, le développeur "de base", va faire un A join B join C alors qu'il serait possible de faire un A, C where A.toto = concat(C.titi + truc).

Préconisation : seulement les liens métiers forts. (assez indéfinissable en soit, c'est tout l'apport d'un architecte à ce niveau - et de se remettre en cause pour faire évoluer ces choix :))

  • quel Flushmode par défaut utiliser ?

Le flushmode.AUTO, s'il est pratique, fait qu'Hibernate réalise beaucoup d'opération

Préconisation : Ici c'est Monsieur performance qui parle : Flushmode.COMMIT par défaut. Les autres Flushmode à la demande en fonction des cas.

  • quel pool de connexion ?

Surtout le principe est de connaitre son pool de connexion et de le configurer (nb maximum de connexions, timeout, idle, requête de validation, etc...)

Préconisation : n'importe du moment qu'on puisse configurer les paramètres précédents

  • quel cache de niveau 1 ?

De la même façon que le pool de connexion, il faut savoir quel est celui utilisé et comment le configurer.

Préconisation : idem, n'importe mais le maitriser

  • utiliser ou non le cache de niveau 2 ?

Le cache de niveau 2 est partagé par toutes les sessions, en général seulement au sein de la JVM. Il est possible de partager un cache de niveau 2 au travers de plusieurs JVM via des caches distribués.

Préconisation : si 1 seule JVM, vous pouvez l'activer. Idem que les autres, maitriser le contenu du cache, sa taille, etc... Si plusieurs JVM, soit pas de cache niveau 2, soit cache distribué ou cache de niveau 2 pour des données en lecture seule.

  • spring data ou non ?

Permet de s'abstraire de pas mal de code technique pour la couche DAO.

Préconisation : Oui si vous avez Spring. Si vous n'avez pas Spring pensez-y...

  • écrire des requêtes avec les critérias, en HQL

Comment écrire les requêtes pour accéder à la base de données.

  1. en criteria : ça permet des refactors assez facile
  2. en HQL écrit à la main : très particulier pour des requêtes très flexibles
  3. en namedQuery : ça permet à la JVM de valider les requêtes au lancement

Préconisation : NamedQuery sur SpringData, Criteria pour les plus compliquées/flexibles

Quelque soit le mode d'écriture, on n'utilise QUE des paramètres bindés.

  • comment tester ? Derby / H2 ? base mémoire / base physique ?

L'avantage des bases mémoire c'est leur rapidité (de mise en oeuvre et d'exécution). Leur inconvénient est qu'il peut y avoir des écarts avec la base physique vraiment utilisé.

Par contre dans les deux cas, le problème est la création des données pour les tests, d'où l'utilisation préconisée des mocks qui simulent les accès base de données :)

Préconisation : des mocks pour les services métiers, une base réelle pour la validation des requêtes écrites par le développeur.

  • Transaction

Les transactions sont utilisées pour deux choses :

  1. garantir que plusieurs requêtes SQL sont validées en même temps
  2. conserver une connexion pour charger les objets et leurs enfants (et éviter les lazy-loading)

Les transactions en lecture seule existe et se termine quand même par un COMMIT et non pas un rollback... 

Préconisation : Déterminer les services qui ont besoin d'une transaction, leur cadre (commit globale ou optimisation de connexion). Utiliser un framework de transaction (Spring, EJB 3.1) et les tags @Transactional.

  • Monitoring

Comme pour les caches et les pools, il convient de savoir ce qui se passe dans la JVM. Des outils existent, mais l'important est d'avoir des informations sur :

- les caches (taille, nombre d'éléments, nombre de hits)
- les pools (nombre de connexions en cours /  nombre max de connexions)
- c'est pratique d'avoir un accès en lecture seule à la base de production pour consulter les informations indexs, query_plan, etc...

 

Écrire un commentaire

Quelle est le premier caractère du mot 3dbjgr ?

Fil RSS des commentaires de cet article