Robots.txt Faylı Nədir? Və Birini Necə Yaradırsan? (Başlayanlar üçün Bələdçi)

 Robots.txt Faylı Nədir? Və Birini Necə Yaradırsan? (Başlayanlar üçün Bələdçi)

Patrick Harvey

Bilirdinizmi ki, saytınızı kimin skan etdiyi və indeksləşdirdiyinə tam nəzarət edirsiniz?

Bunu Robots.txt adlı fayl vasitəsilə etmək olar.

Robots.txt saytınızın kök qovluğunda yer alan sadə mətn faylıdır. O, "robotlara" (məsələn, axtarış motoru hörümçəkləri) saytınızda hansı səhifələri taramalı, hansı səhifələrə məhəl qoymamalı olduğunu bildirir.

Əhəmiyyətli olmasa da, Robots.txt faylı sizə Google və digər axtarış motorları saytınızı görür.

Düzgün istifadə edildikdə, bu, taramanı təkmilləşdirə və hətta SEO-ya təsir edə bilər.

Bəs siz effektiv Robots.txt faylını necə yaradırsınız? Yarandıqdan sonra onu necə istifadə edirsiniz? Onu istifadə edərkən hansı səhvlərdən qaçınmalısınız?

Bu yazıda Robots.txt faylı və ondan necə istifadə edəcəyiniz haqqında bilməli olduğunuz hər şeyi bloqunuzda paylaşacağam.

Gəlin dalış edək:

Robots.txt faylı nədir?

İnternetin ilk günlərində proqramçılar və mühəndislər "robotlar" və ya "hörümçəklər" yaradırdılar. internetdə səhifələri taramaq və indeksləmək üçün. Bu robotlar həm də “istifadəçi agentləri” kimi tanınır.

Bəzən bu robotlar sayt sahiblərinin indeksləşdirmək istəmədiyi səhifələrə daxil olurlar. Məsələn, tikilməkdə olan sayt və ya şəxsi vebsayt.

Bu problemi həll etmək üçün dünyanın ilk axtarış sistemini (Aliweb) yaradan holland mühəndis Martijn Koster hər robotun istifadə edəcəyi standartlar toplusunu təklif etdi.xarici mənbələrdən əlaqələndirilmiş qovluq. Deyək ki, əgər başqa sayt bloklanmış qovluğunuzdakı fayla keçid edərsə, botlar onu indeksləyəcək.

  • Qeyri-qanuni botlar – spamerlər, casus proqramlar, zərərli proqramlar və s. – adətən Robots.txt təlimatlarına məhəl qoymayacaq və sizin fayllarınızı indeksləşdirəcək. məzmundan asılı olmayaraq.
  • Bu, Robots.txt-i məzmunun indeksləşdirilməsinin qarşısını almaq üçün zəif alət edir.

    Əvəzində istifadə etməli olduğunuz şey budur: 'meta noindex' teqindən istifadə edin.

    İndekslənmək istəmədiyiniz səhifələrə aşağıdakı teqi əlavə edin:

    Bu, səhifənin indeksləşdirilməsini dayandırmaq üçün tövsiyə olunan, SEO-ya uyğun üsuldur (hələ də blok etmir) spam göndərənlər).

    Qeyd: Yoast SEO və ya All in One SEO kimi WordPress plaginindən istifadə edirsinizsə; bunu heç bir kodu redaktə etmədən edə bilərsiniz. Məsələn, Yoast SEO plaginində hər yazı/səhifə əsasında noindex teqini əlavə edə bilərsiniz:

    Sadəcə açın və göndərin/səhifəni açın və Yoast SEO qutusundakı dişli çarxı vurun. . Sonra “Meta robotlar indeksi”nin yanındakı açılan menyunu klikləyin.

    Əlavə olaraq, Google sentyabrın 1-dən robots.txt fayllarında “noindex” istifadəsini dəstəkləməyi dayandıracaq. SearchEngineLand-dan bu məqalədə daha çox məlumat var.

    Səhv №2 – Şəxsi məzmunu qorumaq üçün Robots.txt-dən istifadə etmək

    Şəxsi məzmununuz varsa – deyək ki, e-poçt kursu üçün PDF-lər – kataloqu bloklamaq Robots.txt faylı kömək edəcək, lakin bu kifayət deyil.

    Buna görə:

    Kontentiniz ola bilərxarici mənbələrdən əlaqələndirilirsə, hələ də indeksləşdirilir. Üstəlik, yaramaz botlar onu hələ də skan edəcək.

    Daha yaxşı üsul bütün şəxsi məzmunu girişin arxasında saxlamaqdır. Bu, heç kimin – qanuni və ya qeyri-qanuni botların məzmununuza giriş əldə etməyəcəyini təmin edəcək.

    Mənfi tərəfi odur ki, ziyarətçilərinizə keçmək üçün əlavə halqa var. Lakin, məzmununuz daha təhlükəsiz olacaq.

    Səhv №3 – Dublikat məzmunun indeksləşdirilməsini dayandırmaq üçün Robots.txt-dən istifadə etmək

    Dublikat məzmun SEO-ya gəldikdə böyük bir xeyr-yoxdur.

    Lakin bu məzmunun indeksləşdirilməsini dayandırmaq üçün Robots.txt-dən istifadə həll yolu deyil. Yenə deyirəm, axtarış motoru hörümçəklərinin bu məzmunu xarici mənbələr vasitəsilə tapmayacağına zəmanət yoxdur.

    Həmçinin bax: Oxucularınızı maraqlandırmaq üçün blog yazılarınızı necə formatlaşdırmaq olar

    Burada dublikat məzmunu əldə etməyin başqa 3 yolu var:

    • Silin dublikat məzmun – Bu, məzmundan tamamilə xilas olacaq. Bununla belə, bu o deməkdir ki, siz axtarış motorlarını 404 səhifəyə aparırsınız – ideal deyil. Bu səbəbdən, silinməsi tövsiyə edilmir .
    • 301 yönləndirməsindən istifadə edin – 301 yönləndirməsi axtarış motorlarına (və ziyarətçilərə) səhifənin yeni yerə köçürülməsi barədə göstəriş verir. . Ziyarətçiləri orijinal məzmununuza çəkmək üçün sadəcə olaraq dublikat məzmuna 301 yönləndirməsi əlavə edin.
    • Rel=”canonical” teq əlavə edin – Bu teq 301 yönləndirmənin “meta” versiyasıdır. “rel=canonical” teqi Google-a konkret səhifə üçün orijinal URL-nin hansı olduğunu bildirir. üçünbu kodu misal göstərin:

      //example.com/original-page.html ” rel=”kanonik” />

      Google-a bildirir ki, səhifə – original-page.html – dublikat səhifənin “orijinal” versiyasıdır. WordPress-dən istifadə edirsinizsə, bu teq Yoast SEO və ya Hamısı birdə SEO ilə əlavə etmək asandır.

    Ziyarətçilərin dublikat məzmuna daxil olmasını istəyirsinizsə, istifadə edin. rel="canonical" teqi. Ziyarətçilərin və ya botların məzmuna daxil olmasını istəmirsinizsə, 301 yönləndirməsindən istifadə edin.

    Yaxud həyata keçirərkən diqqətli olun, çünki onlar SEO-ya təsir edəcəklər.

    Sizə aiddir

    Robots.txt faylı axtarış sistemi hörümçəkləri və digər botların saytınızla qarşılıqlı əlaqəsini formalaşdırmaqda faydalı müttəfiqdir. Düzgün istifadə edildikdə, onlar reytinqlərinizə müsbət təsir göstərə və saytınızın taranmasını asanlaşdıra bilər.

    Robots.txt-in necə işlədiyini, onun necə quraşdırıldığını və ondan istifadə etməyin bəzi ümumi yollarını başa düşmək üçün bu təlimatdan istifadə edin. . Və yuxarıda müzakirə etdiyimiz səhvlərdən qaçın.

    Əlaqədar oxu:

    • Bloggerlər üçün Ən Yaxşı Reytinq İzləmə Alətləri, Müqayisəli
    • Google Site Links əldə etmək üçün Qəti Bələdçi
    • 5 Güclü Açar Söz Tədqiqatı Aləti Müqayisə Edildi
    riayət etmək lazımdır. Bu standartlar ilk dəfə 1994-cü ilin fevralında təklif edilmişdir.

    30 iyun 1994-cü ildə bir sıra robot müəllifləri və ilk veb qabaqcılları standartlar üzərində konsensusa nail oldular.

    Bu standartlar “Robotların İstisnası” kimi qəbul edildi. Protokol” (REP).

    Robots.txt faylı bu protokolun tətbiqidir.

    REP hər bir qanuni sürükləyicinin və ya hörümçəyin əməl etməli olduğu qaydalar toplusunu müəyyən edir. Əgər Robots.txt robotlara veb səhifəni indeksləşdirməməyi tapşırırsa, hər bir qanuni robot – Googlebotdan MSNbot-a qədər – təlimatlara əməl etməlidir.

    Qeyd: Qanuni brauzerlərin siyahısı burada tapa bilərsiniz.

    Unutmayın ki, bəzi yaramaz robotlar – zərərli proqramlar, casus proqramlar, e-poçt yığımları və s. – bu protokollara əməl etməyə bilər. Buna görə də Robots.txt vasitəsilə blokladığınız səhifələrdə bot trafikini görə bilərsiniz.

    Şübhəli heç bir şey üçün istifadə edilməyən REP standartlarına əməl etməyən robotlar da var.

    Bu url-ə daxil olaraq istənilən vebsaytın robots.txt-inə baxa bilərsiniz:

    //[website_domain]/robots.txt

    Məsələn, Facebook-un Robots.txt faylı budur:

    Və burada Google-un Robots.txt faylı:

    Robots.txt-dən istifadə

    Robots.txt vebsayt üçün vacib sənəd deyil. Saytınız bu fayl olmadan mükəmməl şəkildə sıralana və inkişaf edə bilər.

    Lakin Robots.txt-dən istifadə bəzi üstünlüklər təklif edir:

    • Botları şəxsi qovluqları taramaqdan çəkindirin – Mükəmməl olmasa da, botların şəxsi qovluqları taramasına icazə verilməməsi onların ən azı qanuni botlar (məsələn, axtarış motoru hörümçəkləri) tərəfindən indekslənməsini xeyli çətinləşdirəcək.
    • Resurs istifadəsinə nəzarət - Hər dəfə bir bot saytınızı taradıqda, bant genişliyinizi və server resurslarınızı boşaldır - real ziyarətçilərə daha yaxşı xərclənən resurslar. Çox məzmunlu saytlar üçün bu, xərcləri artıra və real ziyarətçilərə pis təcrübə verə bilər. Resursları qorumaq üçün skriptlərə, əhəmiyyətsiz şəkillərə və s.-yə girişi bloklamaq üçün Robots.txt-dən istifadə edə bilərsiniz.
    • Vacib səhifələrə üstünlük verin – Siz axtarış sistemi hörümçəklərinin saytınızdakı vacib səhifələri taramasını istəyirsiniz. (məsələn, məzmun səhifələri kimi), faydasız səhifələri (məsələn, axtarış sorğularının nəticələri) qazaraq resursları sərf etməyin. Bu cür yararsız səhifələri bloklamaqla siz botların hansı səhifələrə diqqət yetirməsinə üstünlük verə bilərsiniz.

    Robots.txt faylınızı necə tapmaq olar

    Adından da göründüyü kimi, Robots.txt sadədir. mətn faylı.

    Bu fayl vebsaytınızın kök kataloqunda saxlanılır. Onu tapmaq üçün sadəcə olaraq FTP alətinizi açın və public_html altında vebsayt kataloqunuza keçin.

    Bu kiçik mətn faylıdır – mənimki 100 baytdan bir qədər çoxdur.

    Onu açmaq üçün , Notepad kimi istənilən mətn redaktorundan istifadə edin. Siz belə bir şey görə bilərsiniz:

    Saytınızın kök kataloqunda heç bir Robots.txt faylını görməmək şansınız var. Bu halda, siz yaratmalı olacaqsınızRobots.txt faylını özünüz edin.

    Budur:

    Robot.txt faylını necə yaratmaq olar

    Robots.txt əsas mətn faylı olduğundan onu yaratmaq ÇOX sadədir – sadəcə mətn redaktorunu açın və boş faylı robots.txt olaraq yadda saxlayın.

    Bu faylı serverinizə yükləmək üçün veb serverinizə daxil olmaq üçün sevimli FTP alətinizdən (WinSCP istifadə etməyi məsləhət görürəm) istifadə edin. . Sonra public_html qovluğunu açın və saytınızın kök kataloqunu açın.

    Veb hostunuzun necə konfiqurasiya olunduğundan asılı olaraq, saytınızın kök kataloqu birbaşa public_html qovluğunda ola bilər. Və ya, bu, onun içindəki bir qovluq ola bilər.

    Saytınızın kök kataloqunu açdıqdan sonra, sadəcə & Robots.txt faylını ora buraxın.

    Həmçinin bax: PromoRepublic Review 2023: Yeni Sosial Media Məzmununu Yayımlamağa Vaxta qənaət edin

    Alternativ olaraq, Robots.txt faylını birbaşa FTP redaktorunuzdan yarada bilərsiniz.

    Bunun üçün saytınızın kök kataloqunu açın və Sağ klikləyin -> Yeni fayl yaradın.

    Dialoq qutusunda “robots.txt” yazın (dırnaq işarələri olmadan) və OK düyməsini basın.

    Siz içəridə yeni robots.txt faylını görməlisiniz:

    Nəhayət, Robots.txt faylı üçün düzgün fayl icazəsini təyin etdiyinizə əmin olun. Siz sahibinin – özünüz – faylı oxuyub yazmasını istəyirsiniz, lakin başqalarına və ya ictimaiyyətə deyil.

    Sizin Robots.txt faylınız icazə kodu kimi “0644” göstərməlidir.

    Əgər deyil, Robots.txt faylınızı sağ klikləyin və “Fayl icazələri...” seçin

    Budur, tam funksional Robots.txt faylı var!

    Lakinbu faylla əslində nə edə bilərsiniz?

    Sonra mən sizə saytınıza girişi idarə etmək üçün istifadə edə biləcəyiniz bəzi ümumi təlimatları göstərəcəyəm.

    Robots.txt-dən necə istifadə etmək olar

    Unutmayın ki, Robots.txt mahiyyətcə robotların saytınızla qarşılıqlı əlaqəsinə nəzarət edir.

    Axtarış motorlarının bütün saytınıza daxil olmasını bloklamaq istəyirsiniz? Sadəcə olaraq Robots.txt-də icazələri dəyişdirin.

    Bing-in əlaqə səhifənizi indeksləşdirməsini əngəlləmək istəyirsiniz? Siz də bunu edə bilərsiniz.

    Öz-özünə Robots.txt faylı SEO-nu təkmilləşdirməyəcək, lakin siz onu saytınızdakı skaner davranışına nəzarət etmək üçün istifadə edə bilərsiniz.

    Əlavə etmək və ya dəyişdirmək üçün faylı FTP redaktorunuzda açın və mətni birbaşa əlavə edin. Faylı saxladıqdan sonra dəyişikliklər dərhal əks olunacaq.

    Budur, Robots.txt faylınızda istifadə edə biləcəyiniz bəzi əmrlər:

    1. Saytınızdakı bütün botları bloklayın

    Bütün robotların saytınızı taramasını əngəlləmək istəyirsiniz?

    Bu kodu Robots.txt faylınıza əlavə edin:

    User-agent: *

    Disallow: /

    Bu belə olardı faktiki fayldakı kimi görünür:

    Sadə dillə desək, bu əmr hər bir istifadəçi agentinə (*) saytınızdakı heç bir fayl və ya qovluğa daxil olmamağı əmr edir.

    Budur, tam olaraq burada baş verənlərin dəqiq izahı:

    • İstifadəçi-agent:* – Ulduz (*) hər<3 üçün tətbiq olunan 'wild-card' simvoludur> obyekt (məsələn, fayl adı və ya bu halda, bot). Kompüterinizdə “*.txt” üçün axtarış etsəniz, o, hər faylı göstərəcək.txt uzantısı. Burada ulduz işarəsi o deməkdir ki, sizin əmriniz hər istifadəçi-agentə aiddir.
    • İcazə vermə: / – “İcazə vermə” robots.txt əmridir. qovluğu tarama. Tək əyri xətt (/) bu əmri kök kataloqa tətbiq etdiyinizi bildirir.

    Qeyd: Bu, hər hansı şəxsi veb saytı idarə etdiyiniz zaman idealdır. üzvlük saytı. Ancaq unutmayın ki, bu, Google kimi bütün qanuni botların saytınızı taramasını dayandıracaq. Ehtiyatla istifadə edin.

    2. Bütün botların xüsusi qovluğa daxil olmasını bloklayın

    Əgər siz botların xüsusi qovluğu taramasının və indeksləşdirməsinin qarşısını almaq istəyirsinizsə nə etməli?

    Məsələn, /şəkillər qovluğundan?

    İstifadə edin bu əmr:

    User-agent: *

    Disallow: /[folder_name]/

    Əgər siz botların /şəkillər qovluğuna daxil olmasını dayandırmaq istəyirsinizsə, bu əmr belə görünür:

    Resurs qovluğunuz varsa, bu əmr faydalıdır. robot tarama sorğuları ilə boğulmaq istəmirsiniz. Bu, əhəmiyyətsiz skriptlər, köhnəlmiş şəkillər və s. olan qovluq ola bilər.

    Qeyd: /şəkillər qovluğu sırf nümunədir. Mən demirəm ki, siz botların həmin qovluğu taramasını əngəlləməlisiniz. Bu, nəyə nail olmaq istədiyinizdən asılıdır.

    Axtarış motorları adətən botlarının qeyri-şəkil qovluqlarını taramasına mane olan vebmasterlərə üz tutur, ona görə də bu əmrdən istifadə edərkən diqqətli olun. Axtarış motorlarını dayandırmaq üçün Robots.txt-ə bəzi alternativlər sadaladımaşağıda xüsusi səhifələrin indeksləşdirilməsi.

    3. Saytınızdan xüsusi botları bloklayın

    Əgər siz Googlebot kimi xüsusi robotun saytınıza daxil olmasını əngəlləmək istəyirsinizsə nə etməli?

    Bunun üçün əmr budur:

    User-agent: [robot name]

    Disallow: /

    Məsələn, Googlebot-u saytınızdan bloklamaq istəsəniz, istifadə etdiyiniz budur:

    Hər qanuni botun və ya istifadəçi-agentin xüsusi adı var. Məsələn, Google hörümçəyi sadəcə olaraq “Googlebot” adlanır. Microsoft həm “msnbot” həm də “bingbot” işləyir. Yahoo-nun botu “Yahoo! Slurp”.

    Müxtəlif istifadəçi agentlərinin (məsələn, Googlebot, bingbot və s.) dəqiq adlarını tapmaq üçün bu səhifədən istifadə edin.

    Qeyd: Yuxarıdakı əmr bütün saytınızdan müəyyən bir botu bloklayın. Googlebot sırf nümunə kimi istifadə olunur. Əksər hallarda siz heç vaxt Google-un veb saytınızı taramasını dayandırmaq istəməzsiniz. Xüsusi botları bloklamaq üçün xüsusi istifadə hallarından biri saytınıza gəlməyinizə fayda verən botları saxlamaq və saytınıza fayda verməyənləri dayandırmaqdır.

    4. Müəyyən bir faylın taranmasını bloklayın

    Robotların İstisna Protokolu sizə robotun girişini bloklamaq istədiyiniz fayl və qovluğa gözəl nəzarət imkanı verir.

    Faylı dayandırmaq üçün istifadə edə biləcəyiniz əmr budur. hər hansı robot tərəfindən taranmaqdan:

    User-agent: *

    Disallow: /[folder_name]/[file_name.extension]

    Beləliklə, əgər siz “img_0001.png” adlı faylı “şəkillər” qovluğundan bloklamaq istəyirsinizsə, bu əmrdən istifadə edərdiniz:

    5. Qovluğa girişi bloklayın, lakin faylın olmasına icazə verinindekslənmiş

    "İcazə ver" əmri botların qovluğa və ya fayla daxil olmasını bloklayır.

    "İcazə ver" əmri bunun əksini edir.

    "İcazə ver" əmri Əgər birincisi fərdi faylı hədəfləyirsə, "İcazə ver" əmri.

    Bu o deməkdir ki, siz qovluğa girişi bloklaya bilərsiniz, lakin istifadəçi agentlərinə hələ də qovluqda olan fərdi fayla daxil olmağa icazə verə bilərsiniz.

    Budur. istifadə ediləcək format:

    User-agent: *

    Disallow: /[folder_name]/

    Allow: /[folder_name]/[file_name.extension]/

    Məsələn, əgər siz Google-un “şəkillər” qovluğunu taramasını əngəlləmək istəsəniz, lakin ona hələ də orada saxlanılan “img_0001.png” faylına giriş vermək istəsəniz, bu sizin formatınızdır. 'd use:

    Yuxarıdakı misal üçün bu belə görünəcək:

    Bu, /search/ kataloqundakı bütün səhifələrin indeksləşdirilməsini dayandıracaq.

    Xüsusi genişlənməyə uyğun gələn bütün səhifələrin (“.php” və ya “.png” kimi) indekslənməsini dayandırmaq istəsəniz nə etməli?

    Bundan istifadə edin:

    User-agent: *

    Disallow: /*.extension$

    ($) ) işarəsi burada URL-in sonunu bildirir, yəni genişləndirmə URL-də sonuncu sətirdir.

    Əgər siz “.js” genişlənməsi ilə bütün səhifələri bloklamaq istəyirsinizsə (Javascript üçün), burada nə edərdiniz? istifadə edin:

    Bu əmr xüsusilə botların skriptləri taramasını dayandırmaq istəyirsinizsə effektivdir.

    6. Botların saytınızı tez-tez taramasını dayandırın

    Yuxarıdakı nümunələrdə siz bu əmri görmüş ola bilərsiniz:

    User-agent: *

    Crawl-Delay: 20

    Bu əmr bütün botlara tarama sorğuları arasında minimum 20 saniyə gözləməyi tapşırır.

    Sürünmə gecikməsiəmri tez-tez yenilənən məzmunu olan böyük saytlarda (məsələn, Twitter kimi) istifadə olunur. Bu əmr botlara sonrakı sorğular arasında minimum vaxt gözləməyi əmr edir.

    Bu, serverin eyni vaxtda müxtəlif botlardan gələn çoxlu sorğu ilə sıxılmamasını təmin edir.

    Məsələn. , bu, Twitter-in Robots.txt faylıdır və botlara sorğular arasında minimum 1 saniyə gözləməyi tapşırır:

    Siz hətta fərdi botlar üçün tarama gecikməsinə nəzarət edə bilərsiniz. Bu, həddən artıq çox botun saytınızı eyni anda taramamasını təmin edir.

    Məsələn, bu kimi əmrlər dəstiniz ola bilər:

    Qeyd: Əgər hər dəqiqə yaradılan minlərlə yeni səhifə (Twitter kimi) olan nəhəng sayt işlətməsəniz, bu əmrdən həqiqətən istifadə etməyinizə ehtiyac olmayacaq.

    Robots.txt istifadə edərkən qaçınmaq üçün ümumi səhvlər

    Robots.txt faylı saytınızdakı bot davranışına nəzarət etmək üçün güclü vasitədir.

    Lakin o, düzgün istifadə edilmədikdə SEO fəlakətinə də səbəb ola bilər. İnternetdə gəzən Robots.txt ilə bağlı bir sıra yanlış təsəvvürlərin olması kömək etmir.

    Robots.txt-dən istifadə edərkən qaçınmalı olduğunuz bəzi səhvlər bunlardır:

    Səhv №1 – İstifadə Məzmunun indeksləşdirilməsinin qarşısını almaq üçün Robots.txt

    Robots.txt faylında bir qovluğa "İcazə verməyəcəksiniz"sə, qanuni botlar onu skan etməyəcək.

    Lakin bu, yenə də iki şey deməkdir. :

    • Botlar məzmunu tarayacaq

    Patrick Harvey

    Patrick Harvey sənayedə 10 ildən çox təcrübəsi olan təcrübəli yazıçı və rəqəmsal marketoloqdur. O, bloqçuluq, sosial media, e-ticarət və WordPress kimi müxtəlif mövzularda geniş biliyə malikdir. Yazmaq və insanlara onlayn uğur qazanmağa kömək etmək ehtirası onu auditoriyasına dəyər verən dərin və cəlbedici yazılar yaratmağa sövq etdi. Təcrübəli WordPress istifadəçisi kimi Patrick uğurlu veb-saytlar yaratmağın incəlikləri və incəlikləri ilə tanışdır və o, bu biliklərdən həm bizneslərə, həm də fərdlərə onlayn mövcudluqlarını yaratmağa kömək etmək üçün istifadə edir. Təfərrüata diqqət yetirən və mükəmməlliyə sarsılmaz sadiqliyi ilə Patrick öz oxucularını rəqəmsal marketinq sənayesində ən son tendensiyalar və məsləhətlərlə təmin etməyə çalışır. Bloq yazmayanda, Patrick yeni yerləri kəşf edən, kitab oxuyan və ya basketbol oynayan tapıla bilər.