top of page

L’algoritmo adattativo SEO & SEM

L'agenzia Double Malt si pregia di collaborazioni e partnership dall'altissimo livello qualitativo. Interloquiamo con realtà dalle competenze conclamate allo scopo di offrire ai nostri Clienti strumenti e strategie performanti, dal ROI assicurato.
Ecco perché abbiamo scelto di promuovere e distribuire questo algoritmo adattivo, in grado di fornire un boost all'indicizzazione dei siti internet sui cui viene inserito.
Un'operazione i cui risultati sono concretamente misurabili attraverso una dashboard intuitiva e monitorabile in piena autonomia dal Cliente.

L'agenzia Double Malt si pregia di collaborazioni e partnership dall'altissimo livello qualitativo. Interloquiamo con realtà dalle competenze conclamate allo scopo di offrire ai nostri Clienti strumenti e strategie performanti, dal ROI assicurato.
Ecco perché abbiamo scelto di promuovere e distribuire questo algoritmo adattivo, in grado di fornire un boost all'indicizzazione dei siti internet sui cui viene inserito.
Un'operazione i cui risultati sono concretamente misurabili attraverso una dashboard intuitiva e monitorabile in piena autonomia dal Cliente.

INFLUENZARE LA VISIBILITÀ NEL WEB ATTRAVERSO L’OTTIMIZZAZIONE DINAMICA DEI METATAG PER I CRAWLER E L’INTERAZIONE CON GLI ALGORITMI DI INTELLIGENZA ARTIFICIALE DEI MOTORI DI RICERCA

CAMPO DI APPLICAZIONE
Quali sono i campi di applicazione? Cosa fa?

La presente invenzione trova applicazione nel settore tecnico del Digital Web Marketing ed ha per oggetto la visibilità di una "Pagina Web", attraverso l’ottimizzazione dinamica per i Crawler dei Metatag che la compongono, a seguito dell'identifica zione automatica di Fattori di Ranking da ottimizzare per incrementare i risultati dell’interazione con gli Algoritmi di Intelligenza Artificiale dei Motori di Ricerca.

Scenario di utilizzo

Oltre il 60% del traffico ad un sito arriva dai risultati sui motori di ricerca. Google continua ad essere il primo motore di ricerca al mondo e lo è perché i risultati che restituisce, sono quelli più pertinenti rispetto alle ricerche degli utenti online. Tutto questo grazie all’ausilio di strumenti quali:
- GoogleBot, cioè un Crawler (detto anche Spider o Robot), ovvero un software che raccoglie dati da Internet: quando visita un sito web rileva tutto il contenuto che può
analizzare, tutti i collegamenti interni ed esterni e li memorizza in un proprio database. L’obiettivo del Crawler è quindi quello di conoscere di cosa tratta ogni singola pagina in modo che le informazioni possano poi essere recuperate quando è
necessario.
- Rank Brain, cioè un Algoritmo di Intelligenza Artificiale, ovvero un sistema basato sull’apprendimento automatico, che "valuta ed attribuisce punteggi" a Fattori Ranking (FR) che influenzano risultati e posizionamento nella Search Engine Result Page (SERP) del motore di ricerca.

SICUREZZA
L'algoritmo si installa attraverso un codice txt generato attraverso la nostra google api per certificare la sicurezza.

ADATTIVITÀ
L'algoritmo legge ogni tipo di contenuto presente nel proprio sito riqualificandolo nel tempo e migliorando il posizionamento organico.

REQUISITI
L'algoritmo richiede il protocollo https per performare al meglio ed interagire in assoluta sicurezza.

I fattori di ranking

"NON ESISTONO REGOLE UNIVOCHE PER DETERMINARE IL POSIZIONAMENTO E LA VISIBILITÀ DI UNA PAGINA WEB NELLA SERP DI UN MOTORE DI RICERCA PERCHÈ NON ESISTE UNA REGOLA UNIVOCA DI APPLICAZIONE DEI FATTORI DI RANKING"

Fattori di Ranking, sono importanti elementi che Google utilizza per definire "dove dovrà essere posizionato un sito web" in uno specifico risultato, per una specifica keyword o keypharse per una specifica localizzazione geografica.
In teoria, quando un utente digita nel campo di ricerca del motore la sua parola chiave, otterrà un risultato in base, appunto, alla query che ha utilizzato per la ricerca.
In pratica, l’Algoritmo interviene organizzando ed ordinando i risultati in base ad una serie di analisi che non tengono conto solo esclusivamente delle parole chiave contenute nella pagina, ma di altri elementi fondamentali quali:

​ELEMENTI DI ANALISI DELL'ALGORITMO

  • Scopo della pagina / del sito web

  • Competenza, autorità e affidabilità anche dell’autore del contenuto

  • Qualità e quantità dei contenuti

  • Reputazione del sito Web e reputazione dei creatori di contenuti.

Come scegliere quali Fattori di Ranking da ottimizzare dinamicamente

Appurato che sono più di 200 i Fattori di Ranking che possono influenzare il posizionamento e la visibilità di una Pagina Web, appare evidente che può diventare decisamente complesso e dispendioso utilizzare risorse "tempo" e "costi" lavorando per ottimizzarli tutti.
Anche perché, appare evidente, come la maggior parte delle tecniche di ottimizzazione dei fattori di ranking prevedono interventi invasivi sul codice sorgente delle Pagine Web oggetto di ottimizzazione.

A maggior ragion appare altrettantoevidente che "a parità di sforzo" per ottimizzare diversi fattori di Ranking, non tutti producono lo stesso beneficio in termini di visibilità e posizionamento, anche perché:

 

  • “Non esistono regole univoche per determinare il posizionamento e la visibilità di una Pagina Web nella SERP di un motore di ricerca perché non esiste una regola univoca di applicazione dei Fattori di Ranking.”

  • Non esiste una lista ufficiale di Fattori di Ranking ed ed istruzioni univoche per il loro utilizzo”


Pertanto la soluzione che sta alla base dell’invenzione è l’implementazione di un algoritmo di calcolo in grado di definire "quali" e "con che peso" Fattori di Ranking andare di volta in volta, dinamicamente, con l'ulteriore obiettivo sfidante di NON effettuare modifiche sul codice sorgente della pagina web, da ottimizzare agli occhi dell'Algoritmo di Intelligenza Artificiale del motore di ricerca che attribuisce ranking e visibilità alla Pagina stessa.

1

Come
Funziona

Attraverso l’intercettazione della lettura di alcuni web crawler spider al momento della lettura dei metadati, l'algoritmo modificando l'ordine di lettura degli stessi, riesce ad influenzare gli schemi e mappe che i crawlers creano.
In questo modo l'algoritmo crea una mappa dati focalizzata sull'espansione di alcune informazioni selezionate, influenzando così gli schemi di lettura delle intelligenze artificiali dei motori di ricerca.
Invece di utilizzare lo spider come agent/input di lettura, questo viene utilizzato come filtro che produce output ottimizzati.

2

Come è
Realizzato

3

Come si
Installa

L’implementazione dell’algoritmo, che ricordiamo essere modulare, è stata eseguita sviluppando codice sorgente in diversi inguaggi:

  • Javascript

  • Php

  • Json d graph

L’esecuzione sinergica dei diversi moduli produce la modifica ed ottimizzazione di metadati selezionati

L’algoritmo non ha necessità di essere installato sul sito web target. Non sono richieste modifiche al codice sorgente del sito Web target. In fase di setup vengono generati:

a- Un Record TXT da inserire nella configurazione del DNS del dominio target
b- Un codice Google Analytics da aggiungere al sito Web target, per monitorare i risultati.

Di seguito riportiamo un esempio:

a- Codice da inserire nel record txt a TTL 600:

google-site-verification=QxN5xd0Q3n_9lFocOT0uh-
KN4UnddXmHeVioSu_XYZWKM

b- Codice Google Analythics:

<!--Global site tag (gtag.js) - Google Analythics -->
<script async src="https://www.googletagmanager.
com/gtag/js?id=UA-XXXXXXXXXX-
1"></script>
<script>
window.dataLayer = window.dataLayer || [];
function gtag(){dataLayer.push(arguments);}
gtag('js', new Date());
gtag('config', 'UA-XXXXXXXXX-1');
</script>

 

bottom of page