10 Basic SEO Tips to Index + Rank New Content Faster - Whiteboard Friday

10 Basic SEO Tips to Index + Rank New Content Faster – Whiteboard Friday

In SEO, speed is a competitive advantage.

When you publish new content, you want users to find it ranking in search results as fast as possible. Fortunately, there are a number of tips and tricks in the SEO toolbox to help you accomplish this goal. Sit back, turn up your volume, and let Cyrus Shepard show you exactly how in this week’s Whiteboard Friday.

[Note: #3 isn’t covered in the video, but we’ve included in the post below. Enjoy!]

Click on the whiteboard image above to open a high-resolution version in a new tab!

Video Transcription

Howdy, Moz fans. Welcome to another edition of Whiteboard Friday. I’m Cyrus Shepard, back in front of the whiteboard. So excited to be here today. We’re talking about ten tips to index and rank new content faster.

You publish some new content on your blog, on your website, and you sit around and you wait. You wait for it to be in Google’s index. You wait for it to rank. It’s a frustrating process that can take weeks or months to see those rankings increase. There are a few simple things we can do to help nudge Google along, to help them index it and rank it faster. Some very basic things and some more advanced things too. We’re going to dive right in.


1. URL Inspection / Fetch & Render

So basically, indexing content is not that hard in Google. Google provides us with a number of tools. The simplest and fastest is probably the URL Inspection tool. It’s in the new Search Console, previously Fetch and Render. As of this filming, both tools still exist. They are depreciating Fetch and Render. The new URL Inspection tool allows you to submit a URL and tell Google to crawl it. When you do that, they put it in their priority crawl queue. That just simply means Google has a list of URLs to crawl. It goes into the priority, and it’s going to get crawled faster and indexed faster.

2. Sitemaps!

Another common technique is simply using sitemaps. If you’re not using sitemaps, it’s one of the easiest, quickest ways to get your URLs indexed. When you have them in your sitemap, you want to let Google know that they’re actually there. There’s a number of different techniques that can actually optimize this process a little bit more.

The first and the most basic one that everybody talks about is simply putting it in your robots.txt file. In your robots.txt, you have a list of directives, and at the end of your robots.txt, you simply say sitemap and you tell Google where your sitemaps are. You can do that for sitemap index files. You can list multiple sitemaps. It’s really easy.

Sitemap in robots.txt

You can also do it using the Search Console Sitemap Report, another report in the new Search Console. You can go in there and you can submit sitemaps. You can remove sitemaps, validate. You can also do this via the Search Console API.

But a really cool way of informing Google of your sitemaps, that a lot of people don’t use, is simply pinging Google. You can do this in your browser URL. You simply type in google.com/ping, and you put in the sitemap with the URL. You can try this out right now with your current sitemaps. Type it into the browser bar and Google will instantly queue that sitemap for crawling, and all the URLs in there should get indexed quickly if they meet Google’s quality standard.

Example: https://www.google.com/ping?sitemap=https://example.com/sitemap.xml

3. Google Indexing API

(BONUS: This wasn’t in the video, but we wanted to include it because it’s pretty awesome)

Within the past few months, both Google and Bing have introduced new APIs to help speed up and automate the crawling and indexing of URLs.

Both of these solutions allow for the potential of massively speeding up indexing by submitting 100s or 1000s of URLs via an API.

While the Bing API is intended for any new/updated URL, Google states that their API is specifically for “either job posting or livestream structured data.” That said, many SEOs like David Sottimano have experimented with Google APIs and found it to work with a variety of content types.

If you want to use these indexing APIs yourself, you have a number of potential options:

Yoast announced they will soon support live indexing across both Google and Bing within their SEO WordPress plugin.

Indexing & ranking

That’s talking about indexing. Now there are some other ways that you can get your content indexed faster and help it to rank a little higher at the same time.

4. Links from important pages

When you publish new content, the basic, if you do nothing else, you want to make sure that you are linking from important pages. Important pages may be your homepage, adding links to the new content, your blog, your resources page. This is a basic step that you want to do. You don’t want to orphan those pages on your site with no incoming links. 

Adding the links tells Google two things. It says we need to crawl this link sometime in the future, and it gets put in the regular crawling queue. But it also makes the link more important. Google can say, “Well, we have important pages linking to this. We have some quality signals to help us determine how to rank it.” So linking from important pages.

5. Update old content 

But a step that people oftentimes forget is not only link from your important pages, but you want to go back to your older content and find relevant places to put those links. A lot of people use a link on their homepage or link to older articles, but they forget that step of going back to the older articles on your site and adding links to the new content.

Now what pages should you add from? One of my favorite techniques is to use this search operator here, where you type in the keywords that your content is about and then you do a site:example.com. This allows you to find relevant pages on your site that are about your target keywords, and those make really good targets to add those links to from your older content.

6. Share socially

Really obvious step, sharing socially. When you have new content, sharing socially, there’s a high correlation between social shares and content ranking. But especially when you share on content aggregators, like Reddit, those create actual links for Google to crawl. Google can see those signals, see that social activity, sites like Reddit and Hacker News where they add actual links, and that does the same thing as adding links from your own content, except it’s even a little better because it’s external links. It’s external signals.

7. Generate traffic to the URL

This is kind of an advanced technique, which is a little controversial in terms of its effectiveness, but we see it anecdotally working time and time again. That’s simply generating traffic to the new content. 

Now there is some debate whether traffic is a ranking signal. There are some old Google patents that talk about measuring traffic, and Google can certainly measure traffic using Chrome. They can see where those sites are coming from. But as an example, Facebook ads, you launch some new content and you drive a massive amount of traffic to it via Facebook ads. You’re paying for that traffic, but in theory Google can see that traffic because they’re measuring things using the Chrome browser. 

When they see all that traffic going to a page, they can say, “Hey, maybe this is a page that we need to have in our index and maybe we need to rank it appropriately.”


Once we get our content indexed, talk about a few ideas for maybe ranking your content faster. 

8. Generate search clicks

Along with generating traffic to the URL, you can actually generate search clicks.

Now what do I mean by that? So imagine you share a URL on Twitter. Instead of sharing directly to the URL, you share to a Google search result. People click the link, and you take them to a Google search result that has the keywords you’re trying to rank for, and people will search and they click on your result.

You see television commercials do this, like in a Super Bowl commercial they’ll say, “Go to Google and search for Toyota cars 2019.” What this does is Google can see that searcher behavior. Instead of going directly to the page, they’re seeing people click on Google and choosing your result.

  1. Instead of this: https://moz.com/link-explorer
  2. Share this: https://www.google.com/search?q=link+tool+moz

This does a couple of things. It helps increase your click-through rate, which may or may not be a ranking signal. But it also helps you rank for auto-suggest queries. So when Google sees people search for “best cars 2019 Toyota,” that might appear in the suggest bar, which also helps you to rank if you’re ranking for those terms. So generating search clicks instead of linking directly to your URL is one of those advanced techniques that some SEOs use.

9. Target query deserves freshness

When you’re creating the new content, you can help it to rank sooner if you pick terms that Google thinks deserve freshness. It’s best maybe if I just use a couple of examples here.

Consider a user searching for the term “cafes open Christmas 2019.” That’s a result that Google wants to deliver a very fresh result for. You want the freshest news about cafes and restaurants that are going to be open Christmas 2019. Google is going to preference pages that are created more recently. So when you target those queries, you can maybe rank a little faster.

Compare that to a query like “history of the Bible.” If you Google that right now, you’ll probably find a lot of very old pages, Wikipedia pages. Those results don’t update much, and that’s going to be harder for you to crack into those SERPs with newer content.

The way to tell this is simply type in the queries that you’re trying to rank for and see how old the most recent results are. That will give you an indication of what Google thinks how much freshness this query deserves. Choose queries that deserve a little more freshness and you might be able to get in a little sooner.

10. Leverage URL structure

Finally, last tip, this is something a lot of sites do and a lot of sites don’t do because they’re simply not aware of it. Leverage URL structure. When Google sees a new URL, a new page to index, they don’t have all the signals yet to rank it. They have a lot of algorithms that try to guess where they should rank it. They’ve indicated in the past that they leverage the URL structure to determine some of that.

Consider The New York Times puts all its book reviews under the same URL, newyorktimes.com/book-reviews. They have a lot of established ranking signals for all of these URLs. When a new URL is published using the same structure, they can assign it some temporary signals to rank it appropriately.

If you have URLs that are high authority, maybe it’s your blog, maybe it’s your resources on your site, and you’re leveraging an existing URL structure, new content published using the same structure might have a little bit of a ranking advantage, at least in the short run, until Google can figure these things out.

These are only a few of the ways to get your content indexed and ranking quicker. It is by no means a comprehensive list. There are a lot of other ways. We’d love to hear some of your ideas and tips. Please let us know in the comments below. If you like this video, please share it for me. Thanks, everybody.

Video transcription by Speechpad.com

Vertaald van MOZ

How to Explore a SERP Feature Strategy with STAT

How to Explore a SERP Feature Strategy with STAT

This post was originally published on the STAT blog.

Your organic result game is on point, but you’ve been hearing a lot of chatter about SERP features and are curious if they can help grow your site’s visibility — how do you find out? Our SERP Features dashboard will be your one-stop shop for everything feature-related.

If it’s the features in your space that you’re after, you’ll have ’em. The number of keywords producing each feature? You’ll have that, too. The share of voice they’re driving and how much you’re owning? Of course, and more.

Here’s a step-by-step guide on how you can use the dashboard to suss out a SERP feature strategy that’s right for your site.

1. Establish viable sites and segments

For context, let’s say that we’re working for a large supermarket chain with locations across the globe. Once in the dashboard, we’ll immediately look to the Overview module, which will give us a strong indication of whether a SERP feature strategy is viable for any of our keyword segments. We may just find that organic is the road best travelled.

Clicking through our segments, we stumble across one that’s driving a huge amount of share of voice — an estimated 309.8 million views, which is actually up by 33.4 million over the 30-day average.

SERP Features tab Overview module

At this point, regardless of what the deal is with SERP features, we know that we’re looking at a powerful set of keywords. But, because we’re on a mission, we need to know how much of that share of voice is compliments of SERP features.

Since the green section of the chart represents organic share of voice and the grey represents SERP feature share of voice, right away we can see that features are creating a huge amount of visibility. Surprisingly, even more than regular ol’ organic results.

By hovering over each segment of the chart, we can see their exact breakdowns. SERP features are driving a whopping 188.2 million eyeballs, up by 18 million over the 30-day average, while organic results are driving only 121.6 million, having also gained share of voice along the way.

We’re confident that a SERP feature strategy is worth exploring for this segment.

2. Get a lay of the SERP feature landscape 

Next, we want to know what the SERP features appearing in our space are, and whether they make sense for us to tackle.

As a supermarket chain, not only do we sell fresh eats from our brick-and-mortar stores, but our site also has a regularly updated blog with delectable recipes, so we’ve got a few SERP features already in mind (can anyone say places and recipe results?).

But, if for some strange reason our SERPs are full of flights and jobs, maybe we’ll move onto a segment that we can have more impact on, and check in on this one another time.

Daily snapshot

To see what we’re working with, we head to the [Current Day] SERP Features chart, make sure every feature is enabled in the legend, and select SoV: Total from the dropdown, which will show us the total share of voice generated by each feature appearing on our SERPs.

Right away we know that the top two share of voice earners are directly in our wheelhouse: places and recipe results. What are the odds!

Carousels and knowledge graphs — features that we have little or no control over — might be next on the list, but the ones trailing them aren’t far behind and are winnable. So, we’ll pick our favourite five — places, recipes, list snippets, “People also ask” boxes, and paragraph snippets — to build strategies around, and make sure only they appear on our chart.

Since food and food-related activities tend to be heavy on the visuals, it wouldn’t be wise for us to neglect images and videos entirely, so we’ll also enable them just to creep on. (We’ll think of recipes and AMP recipes as one, and make a mental note to look into an overall AMP strategy at some point.)

Our [Current Day] SERP Features chart now shows how our chosen features stack up against each other in terms of share of voice. Apparently, videos have such a small impact that they don’t even warrant a bar on the chart.

Over time

But, before we ride off into the sunset with our SERP features just yet, we still need to do a little more research to see whether they’re a long-term relationship option or a mere flash in the pan.

To do this, we look to the SERP Features Over Time chart, take the SoV: Total metric with us, and select a date-range wide enough to give us a good idea of their past behavior. Ideally, we’d love to see that they’re making continual progress.

At the very least, they appear to have a pretty stable presence — no questionable dips to be seen — which means that we’ve got ourselves some dependable features. Cool.

3. Know how many keywords you’re working with 

Now that we know which SERP features will help boost our site visibility, it’s time to see how many keywords that each feature’s strategy will revolve around.

So, back to the [Current Day] SERP Features chart we head, switching our metric to Count: Total to get the exact number of keywords that produce each result type.

This changes our view rather drastically — video and image results now take top billing. Of course, we’ll remember that despite their apparent popularity on our SERPs, they have very little sway.

As far as the result types that we care about go, “People also ask” boxes and places appear for most of our keywords, and more keywords to optimize for means more time and effort.

We’re absolutely tickled pink to see that a relatively small number of keywords are responsible for producing all that recipes share of voice — this is the feature we’ll probably want to start with.

To get these groups of keywords, we’ll simply click the SERP feature icons along the bottom of the chart and voila! We’ll see a filtered view of them appear in the Keywords tab, allowing us to create individual tags for them. This way, we can monitor them more closely.

Now we can perform some SEO magic.

4. Chart your daily progress against general trends 

As we optimize for our various SERP features, not only can we track our progress, but we can keep an eye on the general happenings of features on our SERPs.

We’ll use modules in the Share of Voice: SERP Features panel for these quick health-checks, customizing them to show only our chosen SERP features, which will make unearthing these insights even easier.

SERP trends

The Top Increases/Decreases module shows us that places, PAAs, and paragraph snippets have gained the most share of voice on our SERPs. The metric for each feature tells us exactly how much movement has been made between the current day and the segment’s 30-day average.

In other words, the overall health of the features we’ve put our lot in with is doing well. And snagging one of them could mean more share of voice than we’d originally anticipated.

Only videos have taken a slight hit, but since we’re not interested in them, we’ll breathe a sigh of relief and pat ourselves on the back for putting them off to the side.

We’ll keep an eye here to make sure that our features continue to trend up on the SERPs.

Personal gains

But how are we doing?

The Your Top Gains/Losses module tells us that our hard work is paying off for places packs. Not only has this result type grown in influence on the SERPs in general, but we’ve managed to increase our share. Woo!

And while we’ve only made a smidgen of improvement with recipes, it’s still better than the none we had before.

Unfortunately, we appear to have lost some ground with our featured snippets. Did we fall out of a few? Did they get bumped down the SERPs because of other, more relevant features? Are snippets just super volatile in our space? We’d be smart to do some investigating.

And finally, since our biggest growing SERP feature for the day isn’t necessarily what drives most of our site visibility, we’ll take a quick peek at the Your Primary Source of SoV module to see who our SERP feature superstar is.

As it happens, out of all the SERP features that we own, places are giving us the most visibility as well.

We’ll watch the needle to see if we keep making gains — we’re currently only owning an estimated 1.7 million views out of an available 60.5 million — or see whether another SERP feature appears here, usurping places as our top earner.

5. Keep track of ownership over the long-haul 

Daily progress reports are great, but we’ll also need a running tally of our successes (and failures) to help us zero-in on when and why things were (or weren’t) working for us.

To do this, we’ll go to the SERP Features Over Time chart, set our metric to Count: Owned and our date-range to whenever we’re curious about, and see how the number of keywords with features that we own has been trending during that period.

Looking over our first month of optimizing — we were doing a great job of increasing our appearance in paragraph and list snippets until recently. We’ll have to look back at what we were up to on September 14 and see if we can replicate our success that day in order to dig ourselves out of our current hole.

Our spot in places results have at least held steady.

Go get ’em, tigers! 

Now that you know how to explore a SERP feature strategy, what are you waiting for! 

Want more info or a personalized walk-through of what you saw here? Say hello and request a demo.

What SERP feature strategies are you keen on exploring — tell us below in the comments?

Vertaald van MOZ

The New Moz Local Is on Its Way!

The New Moz Local Is on Its Way!

Exciting secrets can be so hard to keep. Finally, all of us at Moz have the green light to share with all of you a first glimpse of something we’ve been working on for months behind the scenes. Big inhale, big exhale…

Announcing: the new and improved Moz Local, to be rolled out beginning June 12!

Why is Moz updating the Moz Local platform?

Local search has evolved from caterpillar to butterfly in the seven years since we launched Moz Local. I think we’ve spent the time well, intensively studying both Google’s trajectory and the feedback of enterprise, marketing agency, and SMB customers.

Your generosity in telling us what you need as marketers has inspired us to action. Over the coming months, you’ll be seeing what Moz has learned reflected in a series of rollouts. Stage by stage, you’ll see that we’re planning to give our software the wings it needs to help you fully navigate the dynamic local search landscape and, in turn, grow your business.

We hope you’ll keep gathering together with us to watch Moz Local take full flight — changes will only become more robust as we move forward.

What can I expect from this upgrade?

Beginning June 12th, Moz Local customers will experience a fresh look and feel in the Moz Local interface, plus these added capabilities:

  • New distribution partners to ensure your data is shared on the platforms that matter most in the evolving local search ecosystem
  • Listing status and real-time updates to know the precise status of your location data
  • Automated detection and permanent duplicate closure, taking the manual work out of the process and saving you significant time
  • Integrations with Google and Facebook to gain deeper insights, reporting, and management for your location’s profiles
  • An even better data clean-up process to ensure valid data is formatted properly for distribution
  • A new activity feed to alert you to any changes to your location’s listings
  • A suggestion engine to provide recommendations to increase accuracy, completeness, and consistency of your location data

Additional features available include:

  • Managing reviews of your locations to keep your finger on the pulse of what customers are saying
  • Social posting to engage with consumers and alert them to news, offers, and other updates
  • Store locator and landing pages to share location data easily with both customers and search engines (available for Moz Local customers with 100 or more locations)

Remember, this is just the beginning. There’s more to come in 2019, and you can expect ongoing communications from us as further new feature sets emerge!

When is it happening?

We’ll be rolling out all the new changes beginning on June 12th. As with some large changes, this update will take a few days to complete, so some people will see the changes immediately while for others it may take up to a week. By June 21st, everyone should be able to explore the new Moz Local experience!

Don’t worry — we’ll have several more communications between now and then to help you prepare. Keep an eye out for our webinar and training materials to help ensure a smooth transition to the new Moz Local.

Are any metrics/scores changing?

Some of our reporting metrics will look different in the new Moz Local. We’ll be sharing more information on these metrics and how to use them soon, but for now, here’s a quick overview of changes you can expect:

  • Profile Completeness: Listing Score will be replaced by the improved Profile Completeness metric. This new feature will give you a better measurement of how complete your data is, what’s missing from it, and clear prompts to fill in any lacking information.
  • Improved listing status reporting: Partner Accuracy Score will be replaced by improved reporting on listing status with all of our partners, including continuous information about the data they’ve received from us. You’ll be able to access an overview of your distribution network, so that you can see which sites your business is listed on. Plus, you’ll be able to go straight to the live listing with a single click.
  • Visibility Index: Though they have similar names, Visibility Score is being replaced by something slightly different with the new and improved Visibility Index, which notates how the data you’ve provided us about a location matches or mismatches your information on your live listings.
  • New ways to measure and act on listing reach: Reach Score will be leaving us in favor of even more relevant measurement via the Visibility Index and Profile Completeness metrics. The new Moz Local will include more actionable information to ensure your listings are accurate and complete.

Other FAQs

You’ll likely have questions if you’re a current Moz Local customer or are considering becoming one. Please check out our resource center for further details, and feel free to leave us a question down in the comments — we’ll be on point to respond to any wonderings or concerns you might have!

Head to the FAQs

Where is Moz heading with this?

As a veteran local SEO, I’m finding the developments taking place with our software particularly exciting because, like you, I see how local search and local search marketing have matured over the past decade.

I’ve closely watched the best minds in our industry moving toward a holistic vision of how authenticity, customer engagement, data, analysis, and other factors underpin local business success. And we’ve all witnessed Google’s increasingly sophisticated presentation of local business information evolve and grow. It’s been quite a ride!

At every level of local commerce, owners and marketers deserve tools that bring order out of what can seem like chaos. We believe you deserve software that yields strategy. As our CEO, Sarah Bird, recently said of Moz,

“We are big believers in the power of local SEO.”

So the secret is finally out, and you can see where Moz is heading with the local side of our product lineup. It’s our serious plan to devote everything we’ve got into putting the power of local SEO into your hands.

Vertaald van MOZ

Kwaliteitsscore in Adwords verbeteren

Google Ads Kwaliteitsscore & Advertentierangorde

Dit artikel heb ik vanuit het Engels vertaald voor onze Nederlandse lezers. De vragen zijn gesteld aan Matt Lawson van Google, en geven inzicht in een van de belangrijkste metrics van Google Adwords, namelijk de kwaliteitscore. In onderstaande afbeelding is duidelijk zichtbaar wat voor invloed deze score heeft op je AdWords kosten en opbrengst. De gene die het meeste betaalt krijgt namelijk lang niet altijd de beste advertentie positie.

kosten per kwaliteitsscore in adwords tabel

Credits voor deze afbeelding: Wordstream

Mensen hebben veel vragen over advertentiekwaliteit, Kwaliteitsscore en Advertentierangorde in AdWords. Googler Matt Lawson vertelt wat je wilt weten.

Advertentiekwaliteit en Kwaliteitsscore (de 1-10 metriek in Adwords) zijn waarschijnlijk de meest besproken dingen in heel AdWords. Ik denk dat wanneer je eenmaal mijn standpunt als Google medewerker ziet wat betreft kwaliteit, je kunt stoppen met discussiëren en beginnen met optimaliseren.

In november schreef Matt Lawson een Q&A over de prangende vragen van adverteerders over AdWords. Omdat we zoveel vragen krijgen over advertentiekwaliteit en Advertentierangorde, wilde ik een volledige Q&A wijden aan deze onderwerpen. Dit zijn de vragen die ons ondersteuningsteam het meest heeft ontvangen van jullie. Laten we bekijken wat mensen willen weten over kwaliteit.

1. Hoe verhoog ik mijn 1-10 Kwaliteitsscore?

Ik moet eerst even vertellen dat de Kwaliteitsscore (1-10) gezien kan worden als leeftijd: gewoon een getal. Deze vraag zou eigenlijk als volgt geformuleerd moeten worden: “Hoe kan ik betere advertenties maken voor mijn gebruikers?” De kwaliteitsscore, dat 1-10 getal dat je kunt zien op je Trefwoorden tabblad, is niet de beste manier om te meten hoe goed je advertenties het doen. Het wordt zelfs niet eens gebruikt om je Advertentierangorde te berekenen. (In plaats daarvan worden real-time, veiling specifieke kwaliteitsberekeningen gebruikt.)

Wat echter handig is, zijn de systeembeoordelingen van alle onderdelen van je Kwaliteitsscore (1-10). Zit je onder het gemiddelde, op het gemiddelde of boven het gemiddelde als het gaat om je drie kwaliteitsonderdelen? Gebaseerd op deze beoordelingen kun je een idee krijgen over waar AdWords denkt dat je trefwoorden/advertentie combinatie beter kan. Een volledige lijst van specifieke te nemen stappen voor elke van deze beoordelingen, kan gevonden worden in dit artikel in het AdWords Help Center, maar hier zijn een aantal van de belangrijkste punten:

Te verbeteren onderdelen Acties die je kunt ondernemen
Advertentie relevantie
  • Spreek de intentie die in de vraag van de gebruiker naar voren komt directer aan.
  • Gebruik trefwoorden voor kleinere advertentiegroepen, met meer specifieke advertenties.
Verwachte CTR
  • Schrijf meer aantrekkelijke advertenties (door unieke voordelen naar voren te brengen, nieuwe call-to-actions uit te testen en specifiek te zijn in je tekst).
Landing page ervaring
  • Stuur traffic naar landing pages die gerelateerd zijn aan iemands vraag.
  • Verbeter de conversiegraad. De conversiegraad wordt niet gebruikt voor het berekenen van de kwaliteit, maar is een goede proxy voor landing page ervaring

2. Hoe Beïnvloedt Advertentierangorde Mijn Eigenlijke CPC?

De maximale CPC die je hebt ingesteld voor je trefwoorden gaat de Veiling in en draagt bij aan de eigenlijke CPC die je uiteindelijk betaalt. Je betaalt uiteindelijk wat minimaal nodig is om je advertentiepositie en advertentieformats te behouden. In deze video, gemaakt door mijn bouwmaatje Hal Varian, wordt het erg goed uitgelegd. Hoe beter je andere onderdelen van Advertentierangorde (kwaliteit/extensies) zijn, des te lager de CPC is die je normaal gesproken betaalt om verschillende posities in de Veiling te krijgen.

3. Waarom Is Het Gemiddelde CPC Geen Indicatie Voor Wat Ik Betaal?

Omdat gemiddelden zuigen. Ik weet dat “zuigen” geen zakelijke, professionele uitdrukking is, dus in plaats daarvan zal ik zeggen: “Deze metriek kan handig zijn, maar het is gemakkelijk verkeerd te interpreteren.” Ik heb deze zin gestolen uit een oude Inside AdWords post over gemiddelde positie, ook geschreven door mijn bouwmaatje Hal Varian. Het is een hele goede post om zeker een keer te lezen, aangezien de lessen nu ook nog toepasbaar zijn. (En, wow, wat is de resultatenpagina veel veranderd in vier en een half jaar. Aan de screenshots in de post kun je zien hoe oud het is.)

Je maximale CPC gaat elke veiling in en afhankelijk van een groot aantal factoren kun je elk bedrag tot deze maximale CPC moeten betalen. Je eigenlijke CPC kan zelfs boven het maximale CPC liggen als je je bod aanpast, wat je waarschijnlijk zal doen. Ik heb deze tabel in een aantal andere blogposts geplaatst, dus laten we het nog een keer bekijken, aangezien het ook hier van toepassing is:

Max. CPC Totale Clicks Clicks met een eigenlijk CPC van $0.01 Clicks met een eigenlijk CPC van $0.11 Gem. CPC
$0.11 10 9 1 $0.02
$0.09 9 9 0 $0.01

Een eigenlijke CPC die dichtbij je maximale CPC ligt kan je gemiddelden helemaal veranderen, als je bijna altijd aan de lage kant van het spectrum zit qua betaling. Het verschil tussen je bod en de prijs die je echt betaalt kan erg variëren en dat maakt van de gemiddelde CPC een metriek die bepaalde context vereist. Je maximale/eigenlijke CPCs verschijnen over verschillende, veel ingewikkeldere distributies dan waar ik het in deze tabel over heb en dat maakt de gemiddelden nog minder nuttig dan het lijkt.

Kijk naar het bod simulatie rapport voor een aantal van je trefwoorden om te zien hoe een nieuwe maximale CPC je gemiddelden kan beïnvloeden. Het verhogen van je maximale CPC kan je extra clicks opleveren, maar je gemiddelde CPCs kunnen verhogen bij een hogere waarde.
Wanneer je nieuwsgierig bent naar de CPCs die je betaalt voor verschillende soorten clicks, segmenteer je rapporten dan en bekijk de prestaties nader. Geo’s/apparaten/match types/doelgroepen/netwerk. Segmenteer op dingen zoals uur van de dag om te bekijken of clicks rond lunchtijd goedkoper zijn dan clicks rond dinertijd. Er zijn zoveel variabelen bij betrokken en het gemiddelde van al deze variabelen kan leiden tot een metriek die soms nuttig en soms misleidend is.

4. Hoe Bepaalt Google Wat Een Goede Gebruikerservaring is?

Gebruikerservaring is van groot belang wanneer je kwaliteit meet. Een grote variatie van metrieken wordt gebruikt om goede gebruikerservaring met betrekking tot je advertenties te meten en deze variatie heeft zich de afgelopen jaren ontwikkeld (en blijft zich verder ontwikkelen). Je kunt geen uitgebreide lijst van deze factoren krijgen, maar het goede nieuws is dat de belangrijkste al beschikbaar zijn om te evalueren.

CTR is de meest duidelijke als het gaat om aantrekkelijke advertenties. Veel anderen gaan in op advertentiekwaliteit en de kwaliteit wordt gecontroleerd voor de positie waar je advertentie in verschijnt. Maar wanneer alles vrij stabiel is in je account moet je kijken naar CTR en bekijken of dingen verbeteren. Dat is een hele goede manier om gebruikerservaring te peilen.

In lijn met wat ik hierboven zei is de conversiegraad een uitstekende proxy voor landing page ervaring. Wanneer mensen je gewenste acties uitvoeren wanneer ze je site bezoeken, bied je hen waarschijnlijk een goede ervaring.

5. Is Er Een Account- Of Domeinniveaukwaliteit Die Meegenomen Wordt In De Veiling?

De Veiling gebruikt geen enkele soort interne of accountniveau kwaliteitsmeting. Kwaliteitsbeoordelingen gaan over de vraag van de gebruiker en de advertentie die hier niet mee overeenstemt. Wanneer je nieuwe trefwoorden lanceert, leren deze trefwoorden van andere vergelijkbare trefwoorden in je account, maar dat geldt alleen in het begin. En zelfs dan is dat zo omdat nieuwe trefwoorden bepaalde elementen delen met bestaande trefwoorden. Er is niet veel traffic nodig voordat trefwoorden op zichzelf gaan staan.

Hier is nog een bestaande mythe die ontkracht moet worden, dus vertel het alsjeblieft verder: er bestaat niet zoiets als accountniveau kwaliteit.

Zoals voor domeinen, omdat ze in de kopie van je advertentie verschijnen kunnen gebruikers ze zien en domeinen kunnen gebruikersgedrag beïnvloeden net als elk ander element van creative ad copy (ze kunnen bijvoorbeeld de CTR van een advertentie beïnvloeden, zoals velen die via hun merknaam adverteren al prettig vinden). Ik zou het veranderen van domeinen niet aanraden als een kwaliteitsverbeteringstactiek of iets dergelijks, maar ik erken dat je domein de gebruikerservaring kan beïnvloeden.

6. Als ik een Mobiele Zoekadvertentie creëer, Zal Dit Dan De Kwaliteit Verhogen?

Dat hangt ervan af. Schrijf je een advertentie die beter werkt voor mobiele gebruikers? Zo ja, dan zou je over het algemeen betere kwaliteitsbeoordelingen moeten krijgen. Het toestaan van mobile-preferred creative ads enkel om mobile-preferred creative ads te hebben zal je kwaliteit niet verbeteren.
Kwaliteit gaat helemaal om gebruikerservaring en een goede ervaring op een mobiel apparaat is vaak anders dan een goede ervaring op een desktop. Je mobile-preferred creative ads dienen gecreëerd te zijn voor mobiele gebruikers. Wanneer ze een betere gebruikerservaring opleveren dan je standaard advertenties, zou de kwaliteit moeten verbeteren.


Hier bij Google krijgen we alle soorten vragen over advertentiekwaliteit en ik denk dat de antwoorden een stuk eenvoudiger zijn dan veel mensen denken. Het komt eigenlijk neer op het schrijven van aantrekkelijke advertenties die relevant zijn voor je trefwoorden en die mensen naar een boeiende site leiden.

Google’s algoritme updates

Bijna iedereen in die actief bezig is met zoekmachine optimalisatie heeft wel gehoord van recente algoritme updates. De bekendste van afgelopen jaar: Panda, Penguin, Hummingbird. Maar wat betekenen deze algoritme updates nu precies, hoe kun je als online marketeer je strategie aanpassen om hier optimaal gebruik van te maken?

De Panda algoritmes

Panda algoritme Google

Een van de algoritme toevoegingen die het meeste stof deed opwaaien in SEO-land waren de Panda algoritmes. De Panda algoritmes zijn al in februari 2011 ingesteld en sindsdien al meer dan 25 keer ge-update. Deze set van algoritmes kijkt naar welke content en welke woorden nou daadwerkelijk op een pagina zichtbaar zijn. Ook kijken deze algoritmes naar de verhouding tussen content en overige elementen op de pagina (bijvoorbeeld reclame banners). Toen deze algoritmes voor het eerst werden uitgerold zagen veel sociale netwerken en nieuwssites het organische zoekverkeer toenemen. Spammerige sites met verborgen teksten en waarbij een groot gedeelte van de pagina’s gevuld was met reclame zagen hun verkeer significant afnemen.

Een andere focus van de Panda algoritmes is het opsporen van dubbele content op het web, zodat alleen website die als eerste een artikel plaatste in de zoekresultaten van Google geïndexeerd wordt. Toen de update in 2011 voor het eerst uit werd gerold kwam het nog voor dat websites die content overnamen nog als de originele plaatser werden gezien door de algoritmes. Inmiddels kun je er als SEO gebruiker vanuit gaan dat het letterlijk overnemen van andermans teksten je geen zoekverkeer meer gaat opleveren, zorg dus altijd voor unieke content op je site!

De Pinguin update

Google penguin algoritme seo

De eerste Penguin update werd in april 2012 uitgevoerd. Deze update gaat specifiek op zoek naar zogenaamde ‘over-optimization’ ook wel bekend als ‘keyword-stuffing’. Een bekend fenomeen onder SEO experts was dat het zoekwoord waarop je gevonden wilde worden onnatuurlijk vaak gebruikt werd bij het schrijven van een tekst. De meeste SEO experts hanteren tegenwoordig een optimale zoekwoord dichtheid van tussen de 2% en 4%. Als je bijvoorbeeld een artikel schrijft over zelf bier brouwen van 500 woorden, dan betekent gebruik je ongeveer 5 tot 10 keer het woord bier brouwen. (je zoekwoorden kun je natuurlijk het best plaatsen in de: Titel tag, URL, H1 tag, strong tag etc.)

Naast ‘over-optimization’ op de pagina zelf grijpt de Penguin update ook in bij een spammerig backlink profiel. Waar in het verleden de regel ‘Meer links is beter’ gold, kunnen slechte links zelfs een negatieve invloed op je ranking in Google hebben. Verschillende SEO bedrijven zagen na de Penguin update hun bezoekersaantallen afnemen, en na het verwijderen van de slechte links weer (voor een deel) toenemen. (klik hier om te zien hoe je slechte links verwijderd van je site met Google’s Disavow Tool)

Het Hummingbird algoritme

Google hummingbird algoritme

Het hummingbird algoritme is begonnen in augustus 2013. Er bestaan veel misverstanden over deze algoritme update, in october vorig jaar kwam Matt Cutts van Google met de verklaring dat Hummingbird vrijwel geen invloed heeft op SEO, en eigenlijk alleen gericht is op de interpretatie van volledige zinnen als zoekopdrachten door Google gebruikers.


Credits voor de Panda en Penguin afbeeldingen:





online marketing

Hoe kom ik hoger in Google? 4 simpele stappen

Het optimaliseren van uw website, zodat hij hoger in Google en andere zoekmachine resultaten wordt getoond.

Hoe krijg ik mijn website hoger in Google en andere zoekmachines? Toen ik begon als webmaster, waren er tal van zoekmachines. Vandaag de dag, zijn er, voor het grootste deel, nog slechts Google en Bing, Google krijgt de meerderheid van de bezoekers. smoop.nl krijgt ook de meeste bezoekers via Google. Dit artikel geeft enkele tips over hoe je de positie van uw site in de zoekmachine resultaten op Google kunt verbeteren.

Het verbeteren van jouw site’s plaatsing op Google’s resultatenpagina

Google rangschikt een pagina op basis van een groot aantal factoren. Wat deze factoren precies zijn is blijkbaar een bedrijfsgeheim, maar er zijn een aantal bekende eigenschappen die bijdragen aan de ranking van een pagina.

  1. Links naar je website

    Een van de factoren die bijdraagt aan een webpagina die beschouwd wordt als “belangrijk” voor Google, is het aantal links die naar de pagina. Bijvoorbeeld, als uw pagina 100 kwalitatieve links heeft dan leiden die links tot een hogere ranking dan een (in Google’s beoordeling) dan een site met slechts 20 links.

    Maar wat zijn “kwalitatieve” links? Dit zijn links van andere populaire pagina’s, dat wil zeggen, pagina’s die, zelf, veel (kwalitatieve) links naar zich hebben. (Ja, ik weet het. Mijn definitie is cirkelvormig. En het is mogelijk dat de zoekmachine ook andere factoren heeft die de kwaliteit van een link bepalen.)

    Hoe dan ook, in het algemeen, omdat Google uw pagina’s rangschikt op basis van het aantal links die naar uw pagina verwijzen, zal uw site het beter doen als er meer links verwijzen naar uw site.

  2. je titel tag

    Google lijkt om gewicht te geven aan de titel van uw pagina. Op titel, bedoel ik de tekst die is ingeklemd tussen de HTML <TITLE> tags in het <head> -gedeelte van uw webpagina.

    Als u een web editor die automatisch voegt een titel als “Nieuw Document” te gebruiken, vergeet dan niet om het te veranderen om een aantal betekenisvolle teksten met uw zoekwoorden in het voordeel van uw zoekwoorden aan deze functie toe te voegen. Anders wordt uw site alleen getoont in de zoekresultaten wanneer iemand zoekt naar “Nieuw Document”. Om hoger in Google te komen is de titel de belangrijkste factor om het onderwerp van uw site te bepalen (door zoekmachines)

    Let op: met “keywords”, bedoel ik de woorden die mensen zullen gebruiken bij het zoeken naar uw site. Bijvoorbeeld, als uw site fietsen verkoopt, dan is een sleutelwoord voor uw site “fietsen”, want dat is het woord dat u zou verwachten als mensen in Google op zoek gaan naar fietsen.

  3. Uw pagina moet de woorden bevatten waarvan je denkt dat mensen ze gebruiken bij het vinden van uw site

    Om hoger in Google te komen heeft u naast de titel tag, wanneer iemand zoekt naar een reeks woorden, zeggen: “Widget X”, die woorden moet daadwerkelijk plaatsvinden op uw pagina. Denken vanuit het oogpunt van een zoekmachine. Als u niet de woorden om te zetten “Widget X” ergens op de pagina, hoe wordt de zoekmachine verondersteld om te weten dat de pagina gaat over dat onderwerp? De zoekmachine is geen mens die gevolgtrekkingen uit de algemene toon en de inhoud van de pagina kan tekenen. Zelfs als het kan omgaan met een aantal synoniemen, je gaat om te concurreren met andere sites die zich specifiek die woorden hebben geplaatst op hun site. Om hoger in Google te komen kun je het best ranken op woorden die veel gezocht worden maar waar weinig concurrerende pagina’s op staan.

    Ik weet dat dit punt vanzelfsprekend lijkt (zodra je dit tegenkomt). Echter, uit ervaring, blijken veel webmasters (waaronder ik) zich dat niet te realiseren, als ze voor het eerst beginnen.

  4. Trefwoord gevulde links

    Volgens een paper gepubliceerd door een van de oprichters van Google , als de links die naar uw pagina heeft een aantal woorden in hen, zullen die woorden door Google worden beschouwd als een extra indicatie van de inhoud van uw pagina. Zo zal een link met de tekst “Cheap Shoe Store” wijzend op uw pagina Google veroorzaken om te denken dat uw pagina relevant is wanneer iemand zoekt naar ‘goedkope schoenenwinkel “.Echter, mijn aanbeveling is dat als je denkt dat een bepaalde reeks woorden om uw site relevant is, vertrouw niet op een aantal willekeurige site op het internet een link naar je met die woorden. Zet ze direct op uw pagina.

Hulp nodig om uw site vindbaar te maken? klik dan hier of bel / stuur een mailtje

hoger in google

Andere Google Tips


  1. Gebruik een Search Engine Sitemap

    Hoewel niet strikt noodzakelijk is, als u vindt dat Google (of Bing, wat dat betreft) niet in staat is om een aantal pagina’s op uw website te ontdekken, maak een site map. Ik bedoel niet het type gebruiker site map die je ziet op smoop.nl (die vooral bedoeld is voor de mens), maar een site map die speciaal is ontworpen voor zoekmachines . Hoewel een dergelijke site map kan niet garanderen dat Google-index en de lijst van elke pagina, het zal in ieder geval helpen de ontbrekende pagina’s te ontdekken of uw site-ontwerp is zodanig dat het de zoekmachine heeft belemmerd van hen voor het vinden.

  2. Controleer uw robots.txt-bestand

    Net als alle andere respectabele zoekmachines, zal Google te lezen en te gehoorzamen een speciale tekst bestand op uw website genaamd de “robots.txt” bestand. U kunt bepalen waar zoekmachines zijn toegestaan om te gaan met dit bestand. Een logisch gevolg hiervan is dat u ook per ongeluk kan blokkeren de zoekmachine van plan om bepaalde delen van uw site. Het is over het algemeen een goed idee om een robots.txt-bestand te maken voor uw website, zelfs als het een leeg bestand met nul bytes (wat betekent dat zoekmachines mogen indexeren alles op uw site).

  3. ALT-tekst op afbeeldingen

    Als u foto’s op uw website te plaatsen, zonder de moeite te nemen ALT-tekst te plaatsen, is het nu een goed moment om ze toe te voegen. Een “ALT tekst” (of alternatieve tekst) is gewoon een manier om een korte beschrijving (met woorden), van wat uw afbeelding laat zien. Zij zijn nodig door de software wordt gebruikt door de blinde, zodat ze weten wat er in het beeld. Aangezien alle zoekmachines, waaronder Google, zijn in wezen blind, met een beroep op woorden, moeten ze ook de ALT-tekst. De beschrijving geeft u in de ALT-tekst wordt behandeld als de woorden die zich op uw webpagina, hoewel ik weet niet of ze als even belangrijk worden beschouwd.

  4. Wees voorzichtig met wie je links uitwisseld

    Google’s gebruik van links naar een website te rangschikken heeft ten minste 2 bijwerkingen op het Internet. Ten eerste, mensen die tot een hogere bezig hebben bedrijven te rangschikken om ze te voorzien van ontelbare verbindingen. Die bedrijven vermoedelijk het opzetten van een hele hoop van de sites voor het enige doel van het koppelen aan hun klanten. Ten tweede, als een reactie op deze, de Google-programmeurs hebben wraak (en blijven doen) door diskrediet links van dergelijke “koppeling netwerken” alsook straffen de sites die ze betalen voor de dienst.Het is blijkbaar mogelijk om afoul van dit uitvoeren, zelfs als je niet van plan het kopen van links. Bijvoorbeeld, als je niet voorzichtig bent, en zijn bezig een zoekmachine optimalisatie ( “SEO”) bedrijf om de prestaties van uw site op Google te verbeteren, en ze gebruiken een link netwerk, uw site kan per ongeluk verstrikt raken in het kruisvuur van deze voortdurende oorlog tussen de koppeling netwerken en Google.

  5. De META keywords tag wordt genegeerd

    De zoekmachine van Google negeert de META keywords tag, en is altijd zo gedaan. Als u spam van enkele wannabe search engine optimization ‘specialist’ je te vertellen dat je nodig hebt om deze toe te voegen aan uw site hebben ontvangen, twee keer nadenken over het inhuren van hem / haar, omdat deze aanbeveling al geeft je een hint van de omvang van zijn / haar kennis .

  6. Dynamische pagina’s en hoger in Google komen

    Net als alle moderne zoekmachines (ja, alle 2 van hen), Google is in staat om index dynamisch gegenereerde pagina’s, zo lang als een link naar die pagina’s bestaat ergens. Bijvoorbeeld, een pagina als “http://example.com/showstuff.php?page=19” kan worden geïndexeerd door Google, zodat je niet echt nodig hebt om uw URL’s te herschrijven als je niet kan worden gehinderd.Als u een dynamisch gegenereerde pagina die u denkt dat moet worden geïndexeerd, maar zorg ervoor dat u een link naar het ergens op uw site. Dit geldt voor alle webpagina’s die u toch wilt laten indexeren, dus zelfs als je niet begrijpt wat ik bedoel met “dynamische pagina”, het maakt niet uit. Zorg ervoor dat alle pagina’s van uw site gevonden kunnen worden door middel van ten minste een link op uw site. Als zij niet worden gekoppeld aan ergens, zal niemand in staat zijn om het te vinden, noch Google noch uw bezoekers (tenzij ze helderziend zijn). (uw site komt zo dus niet hoger in Google, en wordt waarschijnlijk helemaal niet getoond.

  7. Het uitschakelen van de cache van uw pagina geen invloed op uw Page Rank

    In de oude geschiedenis, werd beweerd dat Google pagina’s die hij verbood uit caching hun pagina’s zou bestraffen. Zoals u weet, de zoekmachine van Google cache van de pagina wordt geïndexeerd, tenzij anders aangegeven. Om problemen met mensen die dit een hekel te vermijden, ze laten plaatsen om te instrueren Google die pagina’s niet te cachen.Google heeft blijkbaar publiekelijk ontkend dat het uitschakelen van caching rangschikking van de pagina’s van invloed zou zijn op geen enkele manier. Ik heb de neiging om hun eis te geloven.

  8. Verspil geen tijd met de Google Toolbar Page Rank

    In de prehistorie, kon je iets bekend als de Google Toolbar naar uw webbrowser toe te voegen, en neem iets bekend als de “Page Rank” getoond voor elke site die u bezoekt. In die dagen, zou de “Page Rank” u een idee van hoe belangrijk Google dacht dat uw site was te geven.Tegenwoordig is de Page Rank is slechts één van de schijnbaar ontelbare factoren die worden gebruikt door Google in de rangschikking een website. Zij ontmoedigen ook mensen uit gericht op de Page Rank, en als gevolg daarvan, niet echt de achterban op de werkbalk tijdig bij te werken. (Dat wil zeggen, de getoonde rang is vaak vele maanden verouderd en helpt niet meer om hoger in Google te komen.) In feite, ik weet niet zeker of de page rank, zelfs op de werkbalk niet meer wordt getoond.Met andere woorden, het is niet de moeite waard om de toolbar te installeren.

Hulp nodig om uw website vindbaar te maken? klik dan hier of bel / stuur een mailtje

Wilt u reclame maken voor uw fysieke winkel? Probeer het eens voor uw eigen deur met een stoepbord!

Banner Smoop website
smoop logo wit

Over Smoop

Smoop helpt sinds 2011 kleine en middelgrote bedrijven met de online vindbaarheid. Smoop denkt mee op strategisch niveau om maximale resultaten uit het marketingbudget te halen.

Wil je een (snellere) omzetgroei met jouw bedrijf? Neem dan direct contact op.


Kantoor & Bezoek:

Laan van Nieuw Oost-Indië 125
2593 BM
Den Haag


Noord-West Buitensingel 5E
2518 PA
Den Haag

Copyright 2011 - 2020 ©  SMOOP

Chat openen
Stel hier vrijblijvend je vraag
Hoe kunnen we je helpen?