Description :

Nous allons voir quelques bases sur Elasticsearch qui est un moteur de recherche puissant.
Ce moteur se base sur Lucene pour l’indexation et la recherche.

Terminologie :

  • index : collection de documents, est l’équivalent d’une base de données dans un SGBD.
  • document : donnée unitaire contenue dans un index, équivalent à une ligne dans un SGBD. Un document peut avoir plusieurs champs.
  • type : classe de document similaire, pourrait être l’équivalent de la table en SGBD. Il peut y eb avoir plusieurs par index.
  • mapping : définition explicite ou implicite des caractèristiques des champs à indexer, équivalent au schéma en SGBD.
  • node : instance (processus) Elasticsearch.
  • cluster : ensemble de node Elasticsearch sur lesquels sont répartis des index.
  • id : identifiant d’un document.
  • primary shard : chaque document est stocké dans un primary shard. Quand un document est indéxé, il est en premier dans le primary shard puis tous les replicas.
  • replica shard : chaque primary shard a 0 ou plusieurs replicas, un replica est une copie du primary shard
  • field : c’est une association de clé/valeur, un document contient une liste de fields.

shards

Note :
Les documents sont stockés au format JSON et ont un index, un type et un id en plus des données.
Plusieurs nodes peuvent être lancés sur un même serveu, mais il est conseillé d’en avoir qu’un par serveur.
Les replicas shard ont 2 fonctionnalités :

  • augmenter le failover : un replica shard peut être promu primary shard en cas d’incident.
  • augmenter les performances : les requêtes get et search peuvent être traitées sur les primary et replicas shard.

Indexation :

</tr> </table> #### Exemple avec le *character filter* html_strip et *tokenizer* standard
curl -XGET 'http://localhost:9200/_analyze?tokenizer=standard&char_filters=html_strip&pretty=true' -d 'Elasticsearch est <strong>Génial</strong>'
{
  "tokens" : [ {
    "token" : "Elasticsearch",
    "start_offset" : 0,
    "end_offset" : 13,
    "type" : "<ALPHANUM>",
    "position" : 1
  }, {
    "token" : "est",
    "start_offset" : 14,
    "end_offset" : 17,
    "type" : "<ALPHANUM>",
    "position" : 2
  }, {
    "token" : "Génial",
    "start_offset" : 26,
    "end_offset" : 41,
    "type" : "<ALPHANUM>",
    "position" : 3
  } ]
}
#### Ajoutons un *token filter* lowercase
curl -XGET 'http://localhost:9200/_analyze?tokenizer=standard&char_filters=html_strip&filters=lowercase&pretty=true' -d 'Elasticsearch est <strong>Génial</strong>'
{
  "tokens" : [ {
    "token" : "elasticsearch",
    "start_offset" : 0,
    "end_offset" : 13,
    "type" : "<ALPHANUM>",
    "position" : 1
  }, {
    "token" : "est",
    "start_offset" : 14,
    "end_offset" : 17,
    "type" : "<ALPHANUM>",
    "position" : 2
  }, {
    "token" : "génial",
    "start_offset" : 26,
    "end_offset" : 41,
    "type" : "<ALPHANUM>",
    "position" : 3
  } ]
}
#### D'autres filtres existent comme * asciifolding : transforme les caractères Basic Latin Unicode Block (é, à, ç, ð, æ, ...) en caractère ascii. * worddelimiter : permet de séparer un terme en plusieurs. * stopword : permet de supprimer des mots peu important (de, à, qui, que, ...) via une liste. * snowball : permet de tronquer des termes selon un stemmer (racine), exemple il va garder "developpe" pour "développer", "développement", "développeur" ... * elision : supprime les termes peu important comme le "j" du "j'". * ... Il est possible de définir ses propres filtres. ## Recherche : C'est un moteur de recherches full text. Nous allons voir la recherche via des exemples, mais sans token filter ou autre. #### Création d'un index poc-es
curl -XPUT 'http://127.0.0.1:9200/poc-es/'
{"acknowledged":true}
#### Création de documents
curl -XPUT 'http://localhost:9200/poc-es/docPOC/1' -d '{
>     "mot" : "chartePRA",
>     "post_date" : "2016-04-29T14:12:12",
>     "message" : "trying out Elasticsearch"
> }'
{"_index":"poc-es","_type":"docPOC","_id":"1","_version":1,"created":true}

curl -XPUT 'http://localhost:9200/poc-es/docPOC/2' -d '{
>     "mot" : "chartepRa",
>     "post_date" : "2015-04-29T14:12:12",
>     "message" : "trying out Elasticsearch"
> }'
{"_index":"poc-es","_type":"docPOC","_id":"2","_version":1,"created":true}
#### Requête sur le terme chartePRA du field mot
curl 'http://127.0.0.1:9200/poc-es/_search?q=mot:chartePRA&size=5&pretty=true'
{
  "took" : 3,
  "timed_out" : false,
  "_shards" : {
    "total" : 5,
    "successful" : 5,
    "failed" : 0
  },
  "hits" : {
    "total" : 2,
    "max_score" : 0.30685282,
    "hits" : [ {
      "_index" : "poc-es",
      "_type" : "docPOC",
      "_id" : "1",
      "_score" : 0.30685282,
      "_source":{
    "mot" : "chartePRA",
    "post_date" : "2016-04-29T14:12:12",
    "message" : "trying out Elasticsearch"
}
    }, {
      "_index" : "poc-es",
      "_type" : "docPOC",
      "_id" : "2",
      "_score" : 0.30685282,
      "_source":{
    "mot" : "chartepRa",
    "post_date" : "2015-04-29T14:12:12",
    "message" : "trying out Elasticsearch"
}
    } ]
  }
}
la requête peut aussi s'écrire :
curl -XPOST 'localhost:9200/poc-es/_search?pretty' -d '
{
  "query": { "match": { "mot": "chartePRA" } }
}'
On s'aperçoit que la recherche ne tient pas compte de la casse. Attention le matching est fait sur le mot complet, pour du contains il faut utiliser les wildcard * et ?. Les caractères spéciaux sont assimilés à des espaces.

Character Filters
Traitement des chaînes de caractères avant de les passer au tokenizer.
Par exemple supprimer les tags HTML.

Tokenizer
Segmenter la chaîne de caractères en termes.

Token Filters
Application de filtres sur les termes comme par exemple, passer les termes en lowercase, supprimer les stopwords, .... </td>

insertion donnees