Elämää reunalla – Google Kubernetes Engine tekee reunalaskennasta vihdoin totta (in English)

Living on the Edge

Google Kubernetes Engine makes edge computing finally real

 

Author: Markku Tuomala, CTO 

Edge computing has been an unkept promise of 5G networks for years. Industrial companies, energy and utilities, and transportation and logistics businesses have been longing for low-latency services that would allow them to monitor and react in real-time to happenings on the field. Telecom operators, in turn, have dreamt of a genuinely novel business case for their 5G network investments, in which they would offer a scalable, cost-effective edge computing solution as a service to their customers.

Google Cloud’s packaged tools enable Edge as a Service

Edge computing is the practice of processing data closer to the source rather than relying solely on centralized cloud data centers. It offers a range of practical benefits, such as reducing latency, enhancing real-time data processing, and improving system performance. The most mentioned use cases of edge computing are real-time monitoring and control of manufacturing processes, automation of production lines, fleet management, and employee safety.

Two concepts are essential to understanding the hurdles that have been blocking the widespread use of edge computing: containerization and Kubernetes. Containerization involves packaging an application and all its dependencies into a lightweight, portable unit called a container. This allows the application to run consistently across different devices, making it ideal for deployment on edge devices with limited computing capacity. Kubernetes, in turn, acts as a management system for these containers, orchestrating their deployment, scaling, and operation to ensure they run smoothly and efficiently. Jointly, containerization and Kubernetes enable efficient, scalable, and reliable edge computing by ensuring applications can be easily deployed and managed across numerous edge locations.

Managing containerized applications with Kubernetes is a complex technological endeavor that has been a showstopper for many interesting edge computing use cases until recently. In late 2023, however, Google launched a managed service called Google Kubernetes Engine (GKE) Enterprise that will revolutionize the opportunities to offer and deploy edge computing.

Google Kubernetes Engine Enterprise for multitenant edge computing

GKE Enterprise is a tool for managing multitenant edge environments where you can cost-effectively and safely offer computing capacity from the edge for several users. These users can be the manufacturing sites of a single corporation in the same geographical area or a group of clients of a telecom operator or water or electricity company. By using GKE Enterprise, companies can efficiently manage workloads across cloud and edge environments, ensuring seamless operation and high safety availability of applications that require extremely short latency.

Chicken and egg: are use cases awaiting the technology or vice versa?

Some have claimed that edge computing is a fad, as the network connections with 30 – 60 ms latencies in the Nordics, especially, are supposedly enough for 90% of the use cases. The ambitious goal of edge computing to diminish the latency to less than ten milliseconds. This will enable some examples described above, which cannot be realized over the current networks. From my experience, I am convinced that when the appropriately priced chicken is available, the application eggs will follow in numbers. In other words, when the cost of the mature platform technology is on the right level, the game-changing use cases and applications will follow.

Aiming at <10 millisecond latencies

We at Codento have talked with more than a hundred organizations about their plans and aspirations for using artificial intelligence. Customers have delightfully novel ideas for using video surveillance connected to AI, e.g., for identifying the crossing paths of an autonomous forklift and a maintenance worker. With real-time video and a predicting AI solution, a system could reach the upcoming incident faster than a human can, potentially saving the worker’s life.

Last week, we were thrilled to introduce our first customer case in this area to the world. Telecom operator Telia and Codento have collaborated to make edge computing available to Nordic organizations through Telia’s Sirius innovation platform, with ferry operator Finferries being the first customer to pilot the service.

Edge computing transforms industries by enabling secure, low-latency, real-time data processing. For Nordic telecom operators and industrial companies, Google Kubernetes Engine Enterprise offers a powerful platform to harness its benefits.

Codento’s expert team has extensive experience with industrial customers’ businesses and processes, in-depth understanding of the AI-related use cases that Nordic companies are investigating, and awarded capabilities in Google Cloud technologies. We are eager and prepared to help your organization fully utilize edge computing and its applications. Be it a solution you want to build for your use or a platform you want to offer as a service to your customers, we are here to help.

Key takeaways:

  1. Edge computing will enable novel use cases like video monitoring and real-time reactions to events in, e.g., industrial processes
  2. Google Kubernetes Engine Enterprise is a solution enabling multitenant edge computing environments, adding scalability, cost, and security to “Edge as a Service”
  3. Codento can help industrial corporations or telecom, water or electricity companies to build use cases and services based on edge computing

 

About the author:

Markku Tuomala, CTO,  joined Codento in 2021. Markku has 25 years of experience in software development and cloud from Elisa, the leading telecom operator in Finland. Markku was responsible for Telco and IT services cloudification strategy and was a member of Elisa’s production management team. Key tasks included Elisa software strategy and operational services setup for business critical IT outsourcing. Markku drove customer oriented development and was instrumental in business growth to Elisa Viihde, Kirja, Lompakko, Self Services and Network automation. Markku also led Elisa data center operations transformation to DevOps.  

 

Stay tuned for more detailed information and examples of the use cases! If you need more information about specific scenarios or want to schedule a free workshop to explore the opportunities in your organization, feel free to reach out to us.

Uutta tehoa nykyjärjestelmiin – Miten Google Cloud voi olla avuksi? (in English)

Breathe new life into cornerstone systems

Take your Salesforce, SAP, Power BI, Oracle, AWS, and VMware solutions to the next level with Google Cloud

 

Author: Anthony Gyursanszky, CEO

We all want AI and analytics to boost our business and enable growth, but few of us have the deep pockets needed to redo our entire IT environment.

Most Nordic organizations have invested significantly in leading technologies like Salesforce, SAP, Microsoft Power BI, Oracle, AWS, and VMware. However, the jungle of AI capabilities is scattered and a coherent AI roadmap is difficult to envision.

Integrating Google Cloud with the technologies mentioned above, allows you to unlock new synergies and use advanced AI capabilities without extensive reconfiguration or additional capital expenditure.

 

Turbo boost your current system environment without overlapping investments

Adding Google Cloud to your IT strategy does not necessarily mean replacing existing systems. Instead, you can compliment them, enabling them to work together more effectively and deliver greater value with minimal disruption.

For example, Google Kubernetes Engine (GKE) Enterprise enables seamless deployment and management of your existing applications across hybrid and multi-cloud environments. Your Salesforce, SAP, Oracle, and VMware systems can work together more efficiently, with Google Cloud as the glue between them. The result is a more streamlined, agile IT environment that enhances the capabilities of your current investments.

Google Cloud VMware Engine, in turn, allows you to extend your existing VMware environments to Google Cloud without costly migrations or re-architecting. This enables your business to tap into Google Cloud’s vast computing and storage resources, advanced AI tools like Vertex AI machine learning platform, and robust analytics platforms like BigQuery—without a revolution in your current infrastructure.

 

Harness all your data and deploy the market-leading AI tools

Data-driven decision-making is crucial today for maintaining a competitive edge in any field of business. Integrating Google Cloud with, e.g., your existing Microsoft Power BI deployment will significantly enhance your analytics capabilities. Google Cloud’s BigQuery offers a robust, serverless data warehouse that can process vast amounts of data in real-time, providing deeper and faster insights than traditional analytics tools. By connecting BigQuery to Power BI, you can easily analyze data from various sources like SAP, Oracle, or Salesforce and visualize it in dashboards familiar to your end users. Such integration enables your teams to quickly draw informed conclusions based on comprehensive, up-to-date data without significant additional investment.

Furthermore, Google Cloud’s Vertex AI can integrate into your existing data workflows. This way, you can take advantage of Google’s advanced machine learning and predictive analytics tools, and the analysis results can be visualized and acted upon within Power BI.

You can also activate your SAP data with Google Cloud AI for advanced analytics and for building cutting-edge AI/ML and generative AI applications. This enhances the value of your data and positions your business to respond more swiftly to market changes.

For businesses using Oracle, Google Cloud’s Cross-Cloud Interconnect provides secure, high-performance connectivity between Google Cloud and Oracle Cloud Infrastructure (OCI). This allows you to continue leveraging Oracle’s strengths while benefiting from Google Cloud’s advanced AI, analytics, and compute capabilities—without being tied to a single vendor.

 

Start small, and grow compliantly as you go

One key advantage of Google Cloud is that you can start benefiting from the advanced capabilities almost immediately, driving innovation and competitive advantage with only minor incremental investments. Google Cloud’s pay-as-you-go model and flexible pricing allow you to start small, scaling up only as needed and as you gain tangible proof of the business value. This approach minimizes upfront costs while providing access to cutting-edge technologies that can accelerate your business growth.

As your business’s cloud capabilities expand, maintaining data security and compliance remains a top priority especially in the Nordic region, where regulations like GDPR are stringent. Google Cloud’s Hamina data center in Finland provides secure, EU-based infrastructure where your data stays within the region, meeting all local compliance requirements.

Google Cloud also offers advanced security features, such as Identity and Access Management (IAM), that integrate seamlessly with your existing systems like Microsoft Power BI and VMware. This ensures your data is protected across all platforms, allowing you to grow your cloud footprint securely and confidently.

 

Don’t put all your digital eggs in the same basket

Google Cloud’s open standards and commitment to interoperability ensure that you’re not locked into any single vendor, preserving your ability to adapt and evolve your IT strategy as needed. This strategic flexibility is crucial for businesses that want to maintain control over their IT destiny, avoiding the limitations and costs associated with vendor lock-in.

Google Cloud complements your existing IT investments and helps you gain a competitive edge from technology choices you have already made. At Codento, we specialize in helping Nordic businesses integrate Google Cloud into their IT strategies. We ensure that you can maximize the value of your current investments while positioning your business for future growth.

 

About the author:

Anthony Gyursanszky, CEO, joined Codento in late 2019 with more than 30 years of experience in the IT and software industry. Anthony has previously held management positions at F-Secure, SSH, Knowit / Endero, Microsoft Finland, Tellabs, Innofactor and Elisa. Hehas also served on the boards of software companies, including Arc Technology and Creanord. Anthony also works as a senior consultant for Value Mapping Services. His experience covers business management, product management, product development, software business, SaaS business, process management, and software development outsourcing. Anthony is also a certified Cloud Digital Leader.

 

Stay tuned for more detailed information and examples of the use cases! If you need more information about specific scenarios or want to schedule a free workshop to explore the opportunities in your organization, feel free to reach out to us.

Ainutlaatuinen tekoälyavusteinen työntekijäkokemus: Help Desk perustuen Google Cloud HR Agent -teknologiaan

Ainutlaatuinen tekoälyavusteinen työntekijäkokemus: Help Desk perustuen Google Cloud HR Agent -teknologiaan

 

Olemme HR-johtajien toiveiden perusteella luoneet uniikin tekoälyratkaisun, jolla henkilöstö voi intranettiin upotetun chattikkunan kautta selvittää vaivattomasti vastukset yrityksen HR:n ylläpitämiin ohjeisiin, käytäntöihin ja politiikkoihin. Kenenkään ei tarvitse enää kaivaa varsinaista tiedostoja tai verkkosivuja esiin.

Tämä helpottaa työntekijöiden perehdytystä, säästää aikaa sekä henkilöstöltä, esimiehiltä ja henkilöstöosastolla ja nostaa työntekijätyytyväisyyttä.

 

Organisaation haasteet

Organisaatioiden tyypillisiä haasteita ovat:

  • Kasvavat HR:n kustannuspaineet ja resurssointihaasteet
  • Uusien työntekijöiden viivästynyt tuottavuus hitaan perehdytyksen vuoksi, kun tieto löytyy heikosti
  • Hiljainen tieto katoaa henkilöstön vaihtuvuuden kautta
  • Esiiestyön lisääntynyt kuormittavuus
  • Kilpailu osaavasta henkilöstöstä
  • Tiedon määrän kasvu ja oikean tiedon löytämisen haasteet
  • Lisääntyvät aikapaineet henkilöstölle
  • Etätyö ja vähentyvät kasvotusten kohtaamiset
  • Henkilöstön motivaation vaikutus suorituskykyyn
  • Vähemmän aikaa ja mahdollisuuksia kouluttaa henkilöstöä

 

Ratkaisumme

  • Google Cloud ja Codento tarjoavat yhdessä ratkaisun: AI-powered Employee Help Desk: Provide quick, grounded answers to employees looking to obtain information about complex HR process or documents (compensation, benefits, etc) 
  • Chatbotin/Kysymys-vastaus-toiminnon ja hakukoneen (monikielinen) ominaisuudet HR-dokumenteille ilman insinööriosaamista, hienosäätöä tai konfigurointia
  • Agent Builderin avulla käyttäjä voi yksinkertaisesti kuvata chat-agentin konfiguraation sen sijaan, että se määriteltäisiin manuaalisesti

 

Toteutus

  • Perustuu ainutlaatuiseen Google Cloud HR AI Agent -teknologiaan ja sen avaimet-käteen kevyeeseen käyttöönottoon.
    • Generatiivinen AI HR -agentti määritellään sovellukseksi, joka pyrkii saavuttamaan tavoitteensa havainnoimalla ympäröivää maailmaa ja toimimalla käytössään olevilla työkaluilla.
    • Käyttöliittymänä nykyinen HR-intranet tai vastaava HR-portaali, johon HR-agentin chatbot integroidaan saumattomasti
    • Agentilla pääsy kaikkeen tarvittavaan HR-ohjeistukseen ja dokumentaatioon
    • Oppii ajan myötä antamaan parempai ja relevantimpia vastauksia
    • Sopeutuu päivittyvään materiaaliin
    • Tukee eri kieliversioita

 

  • Vuoden Google Cloud -kumppani Codento konfiguroi ja ottaa ratkaisun käyttöön 
    • Asiakkaalta vaaditaan 25 testikysymyksen ja 25 vastaavan mallivastauksen luontia perustuen HR-dokumentaatioon. Codento huolehtii lopusta
    • Ratkaisu on tuotannossa 4 viikossa päätöksestä
    • Voidaan toteuttaa asiakkaan nykyiseen Google Cloud -pilviympäristöön, uuteen ympäristöön (lisätyö pystytykseen) tai Codenton tarjoamaan Google Cloud -pilvialustaan

 

Ratkaisun edut

  • Nopeus – vain muutamassa viikossa käytössä
  • Alhainen hinta – kysy tarjousta
  • Alhainen riski – Codentolla vankka kokemus vastaavista käyttönotoista Google Cloud-teknologialla
  • Ratkaisun laatu – Codenton NPS aina yli 70

 

Ota meihin yhteyttä ja kysy lisää:

 

Johdon opas generatiiviseen tekoälyyn: aloita matkaksi 10 kohdan ohjelmalla (in English)

The Executive’s Guide to Generative AI: Kickstart Your Generative AI Journey with a 10-Step Plan 

 

 

Not sure where to start with generative AI?See what your industry peers are doing and use Google Cloud’s 10-step, 30-day plan to hit the ground running with your first use case

AI’s impact will be huge. Yet right now, only 15% of businesses and IT decision makers feel they have the expert knowledge needed in this fast-moving area.This comprehensive guide will not only bring you up to speed, but help you chart a clear path forward for adopting generative AI in your business. In it, you’ll find:

  • A quick primer on generative AI.
  • A 30-day step-by-step guide to getting started.
  • KPIs to measure generative AI’s impact.
  • Industry-specific use cases and customer stories from Deutsche Bank, TIME, and more.

Dive in today to discover how generative AI can help deliver new value in your business.

 

Submit your contact information to get the report:

Lataa Google Cloud 2024 Data and AI Trends -raportti (in English)

Get Your Copy of Google Cloud 2024 Data and AI Trends Report

 

 

Your company is ready for generative AI. But is your data? In the AI-powered era, many organizations are scrambling to keep pace with the changes rippling across the entire data stack.

This new report from Google Cloud shares the findings from a recent survey of business and IT leaders about their goals and strategies for harnessing gen AI — and what it means for their data.

Get your copy to explore these five trends emerging from the survey:

  • Gen AI will speed the delivery of insights across organizations
  • The roles of data and AI will blur
  • Data governance weaknesses will be exposed
  • Operational data will unlock gen AI potential for enterprise apps
  • 2024 will be the year of rapid data platform modernization

 

 

 

Submit your contact information below to get the report:

Google Cloud Next’24 – tapahtuman ensimmäisen päivän Top 10-nostoa (in English)

Google Cloud Next’24 Top 10 Highlights of the First Day

 

Authors: Codento Consulting Team

 

Google Cloud Momentum Continues

The Google Cloud Next event is taking place this week in Las Vegas showcases a strong momentum with AI and Google Cloud innovations with more than 30 000 participants.

Codento is actively participating to the event in Las Vegas with Ulf Sandlund and Markku Pulkkinen and remotely via the entire Codento team. Earlier on Tuesday Codento was awarded as the Google Cloud Service Partner of the Year in Finland.

As the battle is becoming more fierce among the hyperscalers we can fairly observe that Google Cloud has taken a great position going forward:

  • Rapid growth of Google Cloud with a $36 Billion run rate outpacing its hyperscaler peers on a percentage basis
  • Continuous deep investments in AI and Gen AI progress with over a million models trained 
  • 90% of unicorns use Google Cloud showcasing a strong position with startups
  • A lot of reference stories were shared. A broad range of various industries are now using Google Cloud and its AI stack
  • And strong ecosystem momentum globally in all geographies and locally

 

Top 10 Announcements for Google Cloud Customers

Codento consultants followed every second of the first day and picked our favorite top 10 announcements based on the value to Google Cloud customers:

1. Gemini 1.5 Pro available in public preview on Vertex AI. It can now process from 128,000 tokens up to 1 million tokens. Google truly emphasizes its multi-modal capabilities. The battle against other hyperscalers in AI is becoming more fierce.

2. Gemini is being embedded across a broad range of Google Cloud services addressing a variety of use cases and becoming a true differentiator, for example:

  • New BigQuery integrations with Gemini models in Vertex AI support multimodal analytics, vector embeddings, and fine-tuning of LLMs from within BigQuery, applied to your enterprise data.
  • Gemini in Looker enables business users to chat with their enterprise data and generate visualizations and reports

3. Gemini Code Assist is a direct competitor to GitHub’s Copilot Enterprise. Code Assist can also be fine-tuned based on a company’s internal code base which is essential to match Copilot.

4. Imagen 2. Google came out with the enhanced image-generating tool embedded in Vertex AI developer platform with more of a focus on enterprise. Imagen 2 is now generally available.

5. Vertex AI Agent Builder to help companies build AI agents. This makes it possible for customers to very easily and quickly build conversational agents and instruct and guide them the same way that you do humans. To improve the quality and correctness of answers from models,  a process called grounding is used based on Google Search.

6. Gemini in Databases is a collection of AI-powered, developer-focused tools to create, monitor and migrate app databases.

7. Generative AI-powered security: number of new products and features aimed at large companies. These include Threat Intelligence, Chronicle to assist with cybersecurity investigations) and  Security Command Center.

8. Hardware announcements: Nvidia’s next-generation Blackwell platform coming to Google Cloud in early 2025 and Google Cloud joins AWS and Azure in announcing its first custom-built Arm processor, dubbed Axion

9. Run AI anywhere, generative AI search packaged solution powered by Gemma designed to help customers easily retrieve and analyze data at the edge or on-premises with GDC, this solution will be available in preview in Q2 2024.

10. Data sovereignty. Google is renewing its focus on data sovereignty with emphasis on partnerships, less to building its own sovereign clouds.

There were also a lot of new announcements in the domains of employee productivity and Chrome, but we shall leave those areas for later discussion.

Conclusions

So far the list of announcements has been truly remarkable. As we anticipate the coming days of the Next event we are eager to get deeper into the details and understand what all this means in practice.

What is already known convinces us that Google Cloud and its AI approach continues to be completely enterprise-ready providing capabilities to support deployments from pilot to production. 

To make all this real capable partners, like Codento, are needed to assist the entire journey: AI and data strategy, prioritized use cases, building the data foundation, implementing AI projects with strong grounding and integration, consider security and governance, and eventually build MLOps practices to scale the adoption.

For us partners, much anticipated news came in the form of a new specialization: Generative AI specialization will be available in June 2024. Codento is ready for this challenge with the practice and experience already in place.

To follow the Google Cloud Next 2024 event and announcements the best place is Google Cloud blog.

 

Contact us for more information on our services:

 

Älykkäät toiminnot: Tehokkuuden ja kasvun mahdollistaminen tekoälyllä

Älykkäät toiminnot: Tehokkuuden ja kasvun mahdollistaminen tekoälyllä

 

Kirjoittaja: Antti Pohjolainen, Codento

Kuten edellisessä blogikirjoituksessani mainittiin, tekoäly ei ole pelkästään teknologinen harppaus; se on strateginen voimavara, mullistaen yritysten toimintaa, päätöksentekoa ja asiakaspalvelua. Tämä pätee myös organisaatioden perustoimintojen alueella, missä tekoäly on valmis mullistamaan perinteiset prosessit, parantamaan tehokkuutta, lisäämään tuottavuutta ja luomaan edellytyksiä kestävälle kasvulle.

 

Tekoälyn mahdollisuuksien perustoiminnoissa

Tekoälyn vaikutus toimintoihin ulottuu eri liiketoiminnan osa-alueille, mukaan lukien:

  • Ennakoiva huolto: Tekoälyalgoritmit voivat analysoida valtavia määriä dataa, mukaan lukien anturien lukemat ja historialliset suorituskykytiedot, ennustaakseen laitteiden vikatilanteet ennen niiden tapahtumista. Tämä proaktiivinen lähestymistapa minimoi käyttökatkot, vähentää huoltokustannuksia ja parantaa kokonaisvarojen käyttöä.
  • Älykäs aikataulutus: Tekoälyllä voimautetut aikataulutusratkaisut voivat optimoida resurssien allokaatiota ja tehtävien määritystä varmistaen, että työntekijät keskittyvät oikeisiin tehtäviin oikeaan aikaan. Tämä johtaa parantuneeseen tuottavuuteen, vähentyneisiin ylitöihin ja parantuneeseen työntekijöiden tyytyväisyyteen.
  • Toimitusketjun optimointi: Tekoäly voi analysoida kysyntää, tunnistaa häiriöitä ja optimoida varastotasot, mikä johtaa tehokkaampaan ja ketterämpään toimitusketjuun. Tämä johtaa kustannusten vähenemiseen, parantuneisiin toimitusaikoihin ja lisääntyneeseen asiakastyytyväisyyteen.
  • Riskien minimointi: Tekoäly voi seurata toimintadataa ja tunnistaa poikkeamia tai ilmiöitä, jotka saattavat viitata mahdollisiin riskeihin. Tämä mahdollistaa yrityksille ennakoivan toiminnan, estää kalliit virheet ja suojaa omaisuutta ja mainetta.

Codento on työskennellyt yhdessä monessa edelläkävijäyrityksissä teollisuudessa toteuttaakseen tekoälyn heidän toiminnoissaan. Fastemsilla Codento toteutti älykkään aikataulutuksen ja ennakoivan huollon kyvykkyydet. Lisätietoja löydät referenssitapauksistamme täältä ja täältä.

 

Matka tehokkaisiin toimintoihin

Tekoälyn toteuttaminen tuotannossa edellyttää strategista lähestymistapaa, joka ottaa huomioon jokaisen organisaation erityistarpeet ja haasteet. Keskeiset vaiheet sisältävät:

Ongelmakohteiden  tunnistaminen: ensimmäinen vaihe on tunnistaa alueet, joilla tekoäly voi tuoda merkittävimmät hyödyt, kuten kustannusten vähentäminen, tehokkuuden parantaminen tai päätöksenteon tehostaminen.

Datan valmistelu: Korkealaatuinen data on olennaista tekoälyn tehokkaalle toiminnalle. Tämä sisältää datan puhdistamisen, järjestämisen ja standardoinnin sen tarkkuuden ja luotettavuuden varmistamiseksi.

Mallin kehittäminen ja käyttöönotto: tekoälymallit kehitetään koneoppimisalgoritmeilla, jotka kouluttavat valmisteltua dataa. Nämä mallit otetaan sitten käyttöön tuotantoympäristöihin tehtävien automatisoimiseksi ja oivallusten tarjoamiseksi.

Jatkuva seuranta ja parantaminen: Tekoälymallit eivät ole staattisia; niitä on jatkuvasti seurattava ja päivitettävä, kun data ja liiketoimintaolosuhteet kehittyvät. Tämä varmistaa, että ne pysyvät tarkkoina, ajankohtaisina ja tehokkaina.

 

Kirjoittajasta: Antti  ”Apo” Pohjolainen, myyntijohtaja, aloitti Codenton palveluksessa vuonna 2020. Antti on johtanut Innofactorin (pohjoismainen Microsoft IT-toimittaja) myyntiorganisaatiota Suomessa ja ennen sitä työskennellyt johtotehtävissä Microsoftissa julkiselle sektorille Suomessa ja Keski- ja Itä-Euroopassa. Apo on työskennellyt erilaisissa myyntitehtävissä kauemmin kuin hän muistaa. Hän saa ”myyjän huipun” tavatessaan asiakkaita ja etsiessään ratkaisuja, jotka tarjoavat arvoa kaikille osapuolille. Apo suoritti MBA-tutkinnon Northamptonin yliopistosta. Hänen viimeinen liiketoimintatutkimuksensa käsitteli monipilviratkaisuita. Apo on usein luennoinut tekoälyn käytöstä liiketoiminnassa Haaga-Helian ammattikorkeakoulussa.

 

Seuraa meitä ja tilaa AI.cast, jotta pysyt ajan tasalla viimeaikaisista tekoälykehityksistä:

Google Cloud Nordic Summit 2023: Kolme keskeistä poimintaa

Google Cloud Nordic Summit 2023: Kolme keskeistä poimintaa

Kirjoittajat: Jari Timonen, Janne Flinck, Google Bard

 

Codento  osallistui kuuden hengen tiimin kanssa Google Cloud Nordic Summit -tapahtumaan 19.–20.9.2023, jossa meillä oli mahdollisuus tutustua uusimpiin trendeihin ja kehitykseen pilvipalveluissa.

Tässä blogiviestissä jaamme joitain konferenssin tärkeimmistä teknisistä poiminnoista kehittäjän näkökulmasta.

 

Yritysluokan luova tekoäly laajamittaiseen toteutukseen

Yksi konferenssin jännittävimmistä aiheista oli Generatiivinen AI (GenAI). GenAI on tekoäly, joka voi luoda uutta sisältöä, kuten tekstiä, koodia, kuvia ja musiikkia. GenAI on vielä kehitysvaiheessa, mutta sillä on potentiaalia mullistaa monia toimialoja.

Konferenssissa Google Cloud ilmoitti, että sen GenAI-työkalusarja on valmis laajempiin toteutuksiin. Tämä on merkittävä virstanpylväs, koska se tarkoittaa, että GenAI ei ole enää vain tutkimusprojekti, vaan teknologia, joka

voidaan käyttää todellisten ongelmien ratkaisemiseen.

Yksi Google Cloudin GenAI-tekniikoiden tärkeimmistä eroista on niiden keskittyminen skaalautumiseen ja luotettavuuteen. Google Cloudilla on pitkä kokemus laajamittaisten tekoälytyökuormien suorittamisesta, ja se tuo tämän asiantuntemuksen GenAI-avaruuteen. Tämä tekee Google Cloudista hyvän valinnan yrityksille, jotka haluavat ottaa GenAI:n käyttöön laajasti.

 

Cloud Run auttaa kehittäjiä keskittymään koodin kirjoittamiseen

Toinen konferenssissa laajasti käsitelty aihe oli Cloud Run. Cloud Run on palvelimeton laskenta-alusta, jonka avulla kehittäjät voivat suorittaa koodiaan ilman, että heidän tarvitsee hallita palvelimia tai infrastruktuuria. Cloud Run on yksinkertainen ja kustannustehokas tapa ottaa käyttöön ja hallita verkkosovelluksia, mikropalveluita ja tapahtumapohjaisia työkuormia.

Yksi Cloud Runin tärkeimmistä eduista on sen helppokäyttöisyys. Kehittäjät voivat ottaa koodinsa käyttöön Cloud Runissa yhdellä komennolla, ja Google Cloud hoitaa loput. Tämä vapauttaa kehittäjät keskittymään koodin kirjoittamiseen infrastruktuurin hallintaan.

Google julkaisi juuri Direct VPC -lähtötoiminnon Cloud Ru

 

nille. Se alentaa viivettä ja lisää suorituskykyä yhteyksissä VPC-verkkoosi. Se on kustannustehokkaampaa kuin palvelimettomat VPC-liittimet, jotka olivat aiemmin ainoa tapa yhdistää VPC:si pilveen
Juosta.

Toinen Cloud Runin etu on, että se on kustannustehokas. Kehittäjät maksavat vain resursseista, jotka heidän koodinsa kuluttavat, eikä niistä aiheudu ennakkokustannuksia tai pitkäaikaisia sitoumuksia. Tämä tekee Cloud Runista hyvän valinnan kaikille yrityksille.

 

Site Reliability Engineering (SRE) lisää asiakastyytyväisyyttä

Site Reliability Engineering (SRE) on tieteenala, joka yhdistää ohjelmistosuunnittelun ja järjestelmäsuunnittelun varmistaakseen ohjelmistojärjestelmien luotettavuuden ja suorituskyvyn. SRE:stä on tulossa yhä tärkeämpi, kun yritykset luottavat yhä enemmän pilvipohjaisiin sovelluksiin.

Konferenssissa Google Cloud korosti SRE:n merkitystä nykyisille ja tuleville ohjelmistotiimeille ja yrityksille.

Yksi SRE:n tärkeimmistä eduista on, että se voi auttaa yrityksiä parantamaan ohjelmistojärjestelmiensä luotettavuutta ja suorituskykyä. Tämä voi vähentää seisokkeja ja parantaa käyttömukavuutta
tyytyväisyyteen ja tulojen kasvuun.

Toinen SRE:n etu on, että se voi auttaa yrityksiä vähentämään ohjelmistojärjestelmiensä käyttökustannuksia. SRE-tiimit voivat auttaa yrityksiä tunnistamaan ja eliminoimaan jätettä, ja he voivat myös auttaa yrityksiä optimoimaan infrastruktuurinsa.

 

Johtopäätökset

Google Cloud Nordic Summit oli loistava tilaisuus oppia uusimmista trendeistä ja kehityksestä pilvipalveluissa. Olimme erityisen vaikuttuneita Google Cloudin GenAI-työkaluista. Uskomme, että esitellyillä tekniikoilla on potentiaalia mullistaa ohjelmistojen kehittämis- ja käyttöönottotapa.

Google Cloud Nordic -tiimi myönsi Codentolle Partner Impact 2023 -tunnustuksen Suomessa. Codento sai kiitosta syvästä asiantuntemuksesta Google Cloud -palveluista ja markkinavaikutuksista, vaikuttavista NPS-pisteistä ja toisen Google Cloud -erikoisalan saavuttamisesta.

 

 

 

Tietoja kirjoittajista:

Jari Timonen on kokenut ohjelmistoalan ammattilainen, jolla on yli 20 vuoden kokemus IT-alalta. Jarin intohimona on rakentaa siltoja liiketoiminnan ja teknisten tiimien välille, jossa hän on työskennellyt esimerkiksi edellisessä tehtävässään Cargotecissa. Hän on Codentossa mukana pilotoimassa asiakkaita kohti tulevaisuuden yhteensopivia pilvi- ja hybridipilviympäristöjä.

Janne Flinck on tekoäly- ja datajohtaja Codentossa. Janne liittyi Codentoon Accenture 2022:sta, jolla on laaja kokemus Google Cloud Platformista, Data Sciencestä ja Data Engineeringistä. Hänen kiinnostuksen kohteena on dataintensiivisten sovellusten ja työkalujen luominen ja arkkitehtuuri. Jannella on kolme ammatillista sertifikaattia ja yksi osakkuussertifiointi Google Cloudissa sekä kauppatieteiden maisterin tutkinto.

Bard on Googlen kehittämä keskustelupalstallinen generatiivinen tekoäly-chatbot, joka perustuu aluksi LaMDA-perheeseen suuria kielimalleja (LLM) ja myöhemmin PaLM LLM:ää. Se kehitettiin suorana vastauksena OpenAI:n ChatGPT:n nousuun, ja se julkaistiin rajoitetussa kapasiteetissa maaliskuussa 2023 haaleiden vastausten vuoksi, ennen kuin se laajeni muihin maihin toukokuussa.

 

Ota yhteyttä saadaksesi lisätietoja Google Cloud -ominaisuuksistamme:

 

 

Tekoäly teollisuudessa: Konenäkö laadun varmistamisessa

Tekoäly teollisuudessa: Konenäkö laadun varmistamisessa

 

Kirjoittaja: Janne Flinck

 

Johdanto

Smart Industry -tapahtuman innoittamana päätimme aloittaa sarjan blogitekstejä, joissa käsitellään tekoälyn hyödyntämistä teollisuuden sovelluksissa. Tässä ensimmäisessä osassa käsittelemme laadunvalvonnan automatisointia konenäön avulla.

Teollisuus- ja logistiikkayritykset asettavat laadunvalvontaprosessiensa tehokkuuden ja tuottavuuden etusijalle. Viime vuosina konenäköpohjainen automaatio on noussut erittäin tehokkaaksi ratkaisuksi laatukustannusten ja vikojen vähentämiseen.

American Society of Quality arvioi, että useimmat valmistajat käyttävät 15–20 prosenttia tuloistaan ”todellisiin laatuun liittyviin kustannuksiin”. Jotkut organisaatiot nostavat toiminnassaan jopa 40 %:n laatukustannukset. Valmistuksen laatuun vaikuttavia kustannustekijöitä on kolmella eri alueella:

  • Arviointikustannukset: materiaalien ja prosessien tarkastus, koko järjestelmän laatuauditoinnit, toimittajien arvioinnit
  • Sisäiset vikakustannukset: resurssien tuhlausta tai virheistä huonosta suunnittelusta tai organisoinnista, valmiiden tuotteiden virheiden korjaamisesta, sisäisten menettelytapojen analyysin epäonnistumisesta
  • Ulkoiset vikakustannukset: toimitettujen tuotteiden korjaukset ja huolto, takuuvaatimukset, reklamaatiot, palautukset

Tekoäly auttaa valmistajia kehittymään kaikilla näillä alueilla, minkä vuoksi johtavat yritykset ovat omaksuneet tämän. Google Cloudin (haastateltu yli 1 000 tuotantojohtajaa seitsemässä maassa vuonna 2021) tekemän tutkimuksen mukaan 39 % valmistajista käyttää tekoälyä laaduntarkastuksiin ja 35 % itse tuotantolinjan laaduntarkastuksiin.

Viisi yleisintä aluetta, joilla tekoälyä käytetään tällä hetkellä päivittäisessä toiminnassa:

  • Laaduntarkastus 39 %
  • Toimitusketjun hallinta 36 %
  • Riskienhallinta 36 %
  • Tuotteen ja/tai tuotantolinjan laaduntarkastukset 35 %
  • Varastonhallinta 34 %

Lähde: Google Cloud Manufacturing Report

Konenäön avulla tuotantolinjatyöntekijät voivat vähentää toistuviin tuotetarkastuksiin kuluvaa aikaa, jolloin he voivat siirtää huomionsa monimutkaisempiin tehtäviin, kuten juurisyyanalyysiin.

Nykyaikaiset konenäkömallit ja -kehykset tarjoavat monipuolisuutta ja kustannustehokkuutta, ja erikoistuneet pilvipohjaiset palvelut AI-mallien koulutukseen ja reunalaitteiston käyttöönottoon (edge deployment) vähentävät edelleen toteutuksen monimutkaisuutta.

 

Ratkaisun yleiskatsaus

Tässä blogikirjoituksessa keskitymme vikojen havaitsemiseen kokoonpano- ja lajittelulinjoilla. Google Cloudin Vertex AI- ja AutoML-palveluilla toteutettu reaaliaikainen visuaalisen laadunvalvontaratkaisumme voi seurata useita kokoonpanolinjalla olevia kohteita, analysoida jokaisen kohteen ja arvioida vikojen tai vaurioiden todennäköisyyttä.

Ensimmäinen vaihe sisältää videovirran valmistelun jakamalla virran yksittäisiksi kuviksi analysointia varten. Seuraavassa vaiheessa käytetään mallia objektien ympärillä olevien rajauskehyksen (bounding box) tunnistamiseen.

Kun kohde on tunnistettu, viantunnistusjärjestelmä käsittelee kuvan leikkaamalla objektin rajauskehyksen avulla, muuttamalla sen kokoa ja lähettämällä sen viantunnistusmalliin luokittelua varten. Tulos on kuva, jossa kohde tunnistetaan rajauskehyksillä ja luokitellaan joko viaksi tai ei-vikaksi. Nopea prosessointiaika mahdollistaa reaaliaikaisen seurannan mallin ulosannin (output) avulla, automatisoiden vianhakuprosessin ja lisäten kokonaistehokkuutta.

Tässä esimerkki tämän ratkaisun Google Cloud arkkitehtuurista:

Toteutustiedot

Tässä osiossa käsittelen joitakin järjestelmän osia, pääasiassa sitä, mitä tarvitaan aloittamiseen ja mitä asioita tulee ottaa huomioon. Aineisto on itse luotu kotoa löytämistäni objekteista, mutta tätä samaa lähestymistapaa ja algoritmia voidaan käyttää missä tahansa objektissa, kunhan videon laatu on hyvä.

Tässä on esimerkkikuva videosta, jossa voimme nähdä yhden viallisen kohteen ja kolme ei-viallista objektia:

Voimme myös nähdä, että yksi kohteista on poistumassa kuvan oikealta puolelta ja toinen on tulossa kuvaan vasemmalta.

Video löytyy täältä.

 

Aineistojen ja mallien yleiskatsaus

Kokeessamme käytimme videota, joka simuloi tuotantohihnaa. Videolla näkyi esineitä näytöllä liikkuen vasemmalta puolelta oikealle, joista osa oli viallisia tai vaurioituneita. Koulutusaineistomme (training data) koostui noin 20 eri kohteesta, joista neljä oli viallisia.

Visuaalista laadunvalvontaa varten meidän on hyödynnettävä objektintunnistusmallia ja kuvan luokittelumallia. Kohteen tunnistusmallin rakentamiseen on kolme vaihtoehtoa:

  1. Kouluta Google Vertex AI AutoML:n tuottama malli
  2. Käytä valmiiksi rakennettua Google Cloud Vision -API:a
  3. Kouluta mukautettu malli

Tälle prototyypille päätimme valita molemmat vaihtoehdot 1 ja 2. Vertex AI AutoML -mallin kouluttamiseksi tarvitsemme annotoidun aineiston, jossa on rajauskehyksen koordinaatit. Aineistomme suhteellisen pienen koon vuoksi päätimme käyttää Google Cloudin datamerkintätyökalua. Suuremmille aineistoille suosittelemme kuitenkin Vertex AI -datamerkintätyökalun käyttöä.

Tätä tehtävää varten piirsimme manuaalisesti rajauskehykset jokaiselle kuvassa olevalle objektille ja annotoimme objektit. Käytimme kaiken kaikkiaan 50 kuvaa objetintunnistusmallimme kouluttamiseen, mikä on hyvin vaatimaton määrä. 

Koneoppimismallit vaativat yleensä suuremman määrän näytteitä koulutukseen. Tätä blogikirjoitusta varten näytteiden määrä oli kuitenkin riittävä arvioimaan pilvipalvelun soveltuvuutta vikojen havaitsemiseen. Yleensä mitä enemmän merkittyä aineistoa voit tuoda koulutusprosessiin, sitä parempi mallistasi tulee. Toinen ilmeinen kriittinen vaatimus aineistolle on edustavat esimerkit sekä vioista että tavallisista esiintymistä.

AutoML-objektien havaitsemisen ja AutoML-vian havaitsemisen ainestojen luomisen myöhemmät vaiheet sisälsivät aineiston jakamisen opetus-, validointi- ja testausalajoukoiksi. Oletusarvon mukaan Vertex AI jakaa automaattisesti 80 % kuvista harjoittelua varten, 10 % validointia varten ja 10 % testausta varten. Käytimme manuaalista jakamista datavuotojen (data leakage) välttämiseksi. Erityisesti vältämme peräkkäisten kuvien sarjoja.

AutoML-aineiston prosessi on seuraava:

Mitä tulee valmiin Google Cloud Vision -sovellusliittymän käyttämiseen objektien havaitsemiseen, aineisto-annotointia ei vaadita. Asiakaskirjastoja (client libraries) käytetään vain API:n kutsumiseen ja vastauksen käsittelemiseen, joka koostuu normalisoiduista rajauskehyksistä ja objektien nimistä. Näistä objektinimistä suodatamme sitten etsimämme kohteet. Vision API:n prosessi on seuraava:

Miksi mukautettua mallia koulutettaisiin, jos Google Cloud Vision API:n käyttö on näin yksinkertaista? Ensinnäkin Vision API havaitsee yleiset objektit, joten jos on jotain hyvin erityistä, se ei ehkä ole tunnisteluettelossa. Valitettavasti näyttää siltä, että Google Cloud Vision API:n havaitsemien tunnisteiden luettelo ei ole täysin julkisesti saatavilla. Kannattaa kokeilla Google Cloud Vision API:ta ja katsoa, pystyykö se havaitsemaan kiinnostuksen kohteena olevan objektin.

Vertex AI:n dokumentaation mukaan AutoML-mallit toimivat optimaalisesti, kun vähiten esimerkkejä sisältävässä kategoriassa on vähintään 10 % esimerkeistä kategoriasta, jossa on eniten esimerkkejä. Tuotantotapauksessa on tärkeää sisällyttää suunnilleen sama määrä koulutusesimerkkejä kustakin kategoriasta.

Vaikka sinulla olisi runsaasti ainestoa yhdestä kategoriasta, on parasta jakaa dataa tasaisesti jokaiselle kategorialle. Koska ensisijainen tavoitteemme oli rakentaa prototyyppi rajoitetun aineiston avulla mallin tarkkuuden parantamisen sijaan, emme puuttuneet epätasapainoisten luokkien ongelmaan.

 

Objektin seuranta

Kehitimme OpenCV-kirjastoon perustuvan objektien seuranta-algoritmin vastaamaan videoskenaariomme erityisiin haasteisiin. Testaamamme seurantalaitteet olivat CSRT, KCF ja MOSSE. Seuraavat nyrkkisäännöt pätevät myös skenaariossamme:

  • Käytä CSRT:tä, kun tarvitset suurempaa objektien seurantatarkkuutta ja voit sietää hitaampaa FPS-suorituskykyä
  • Käytä KCF:ää, kun tarvitset nopeampaa FPS-suorituskykyä, mutta pystyt käsittelemään hieman pienempää objektien seurantatarkkuutta
  • Käytä MOSSEa, kun tarvitset puhdasta nopeutta

Kohteen seurantaa varten meidän on otettava huomioon seuraavat videon ominaisuudet:

  • Jokainen kuva voi sisältää yhden tai useita objekteja tai ei ollenkaan
  • Uusia esineitä saattaa ilmestyä videon aikana ja vanhat esineet katoavat
  • Objektit voivat olla vain osittain näkyvissä, kun ne tulevat kehykseen tai poistuvat siitä
  • Samalla objektilla voi olla päällekkäisiä rajauskehyksiä
  • Sama objekti on videossa useiden peräkkäisten ruutujen ajan

Koko prosessin nopeuttamiseksi lähetämme jokaisen täysin näkyvän kohteen viantunnistusmalliin vain kahdesti. Sitten laskemme mallin todennäköisyystulosten keskiarvon ja määritämme tunnisteen kyseiselle objektille pysyvästi. Näin voimme säästää sekä laskenta-aikaa että rahaa, kun emme kutsu mallin päätepistettä tarpeettomasti samalle objektille useita kertoja videon aikana.

 

Johtopäätökset

Tässä on ulosanti-videovirta ja rajauskehys laadunvalvontaprosessista. Sininen tarkoittaa, että kuva on havaittu, mutta sitä ei ole vielä luokiteltu, koska kuva ei ole täysin näkyvissä kehyksessä. Vihreä tarkoittaa, että vikaa ei ole havaittu ja punainen on vika:

Video löytyy täältä.

Nämä havainnot osoittavat, että on mahdollista kehittää automatisoitu visuaalinen laadunvalvontaputki mahdollisimman pienellä määrällä näytteitä. Tosimaailmassa meillä olisi pääsy paljon pidempiin videovirtoihin ja mahdollisuus laajentaa aineistoa iteratiivisesti parantaaksemme mallia, kunnes se täyttää halutut laatustandardit.

Näistä rajoituksista huolimatta pystyimme Vertex AI:n ansiosta saavuttamaan kohtuullisen laadun jo ensimmäisellä koulutuskierroksella, joka kesti vain muutaman tunnin, jopa pienellä ainestolla. Tämä korostaa esikoulutettujen mallien ja AutoML-ratkaisujen hyödyntämisen tehokkuutta ja vaikuttavuutta, sillä pystyimme saavuttamaan lupaavia tuloksia erittäin lyhyessä ajassa.

 

Blogin kirjoittajasta: Janne Flinck  on Codenton AI & Data Lead. Janne liittyi Codentoon Accenturelta vuonna 2022. Jannella on laaja kokemus Google Cloud -teknologioista. Hänen kiinnostuksen kohteena on dataintensiivisten sovellusten ja työkalujen luominen ja arkkitehtuuri. Jannella on kolme Google Cloud -sertifikaattia.

 

 

Ota meihin yhteyttä niin keskustellaan teollisuuden tekoälyratkaisuista lisää!