Deze pijnpunten voorkomen dat bedrijven diep leren toepassen

Schrijver: Roger Morrison
Datum Van Creatie: 23 September 2021
Updatedatum: 1 Juli- 2024
Anonim
ONTDEK HOE JE  VERDER KUNT HERSTELLEN NA EEN HERSENINFARCT
Video: ONTDEK HOE JE VERDER KUNT HERSTELLEN NA EEN HERSENINFARCT

Inhoud


Bron: Agsandrew / Dreamstime.com

Afhaal:

Diep leren heeft bedrijven veel te bieden, maar velen aarzelen nog steeds om het over te nemen. Hier kijken we naar enkele van de grootste pijnpunten.

Diep leren is een deelgebied van machine learning, wat (in het algemeen) technologie is die is geïnspireerd door het menselijk brein en zijn functies. Voor het eerst geïntroduceerd in de jaren 1950, wordt machine learning cumulatief geïnformeerd door wat bekend staat als het kunstmatige neurale netwerk, een overvloed aan onderling verbonden dataknopen die gezamenlijk de basis vormen voor kunstmatige intelligentie. (Bekijk Machine Learning 101 voor de basisprincipes van machine learning.)

Machine learning stelt computerprogramma's in staat zichzelf te veranderen wanneer daarom wordt gevraagd door externe gegevens of programmering. Van nature is het in staat dit te bereiken zonder menselijke interactie. Het deelt vergelijkbare functionaliteit met datamining, maar met gedolven resultaten die door machines in plaats van mensen moeten worden verwerkt. Het is verdeeld in twee hoofdcategorieën: begeleid en niet-begeleid leren.


Supervised machine learning omvat het afleiden van vooraf bepaalde bewerkingen via gelabelde trainingsgegevens. Met andere woorden, de bewaakte resultaten zijn vooraf bekend bij de (menselijke) programmeur, maar het systeem dat de resultaten leidt, is getraind om ze te 'leren'. Machinaal leren zonder toezicht trekt daarentegen conclusies uit niet-gelabelde invoergegevens, vaak als middel om onbekende patronen te detecteren.

Diep leren is uniek in zijn vermogen om zichzelf te trainen via hiërarchische algoritmen, in tegenstelling tot de lineaire algoritmen van machine learning. Diepe leerhiërarchieën worden steeds complexer en abstracter naarmate ze zich ontwikkelen (of 'leren') en vertrouwen niet op bewaakte logica. Simpel gezegd, deep learning is een zeer geavanceerde, nauwkeurige en geautomatiseerde vorm van machine learning en loopt voorop in kunstmatige intelligentie.

Zakelijke toepassingen van diep leren

Machine learning wordt al vaak gebruikt in verschillende industrieën. Sociale media gebruiken het bijvoorbeeld om contentfeeds te beheren in tijdlijnen van gebruikers. Google Brain is enkele jaren geleden opgericht met de bedoeling om diepgaand leren te produceren in de verschillende services van Google naarmate de technologie evolueert.


Met zijn focus op voorspellende analyses, wordt het gebied van marketing vooral geïnvesteerd in diepgaande innovatie. En aangezien gegevensverzameling de technologie drijft, zijn industrieën zoals verkoop en klantenondersteuning (die al over een schat aan rijke en diverse klantgegevens beschikken) uniek gepositioneerd om deze op het grondniveau over te nemen.

Vroege aanpassing aan diepgaand leren kan heel goed de belangrijkste bepalende factor zijn in hoeveel specifieke sectoren profiteren van de technologie, vooral in de vroegste fasen. Desondanks weerhouden enkele specifieke pijnpunten veel bedrijven ervan om de sprong te wagen naar investeringen in diepgaande leertechnologie.

De V's van Big Data en Deep Learning

In 2001 schetste een analist voor META Group (nu Gartner) met de naam Doug Laney wat onderzoekers de drie belangrijkste uitdagingen van big data zagen: volume, variëteit en snelheid. Meer dan anderhalf decennium later heeft de snelle toename van toegangspunten tot internet (grotendeels als gevolg van de toename van mobiele apparaten en de opkomst van IoT-technologie) deze problemen op de voorgrond gebracht voor grote technologiebedrijven en kleinere bedrijven en startups. (Voor meer informatie over de drie v's, zie de Big Data-uitdaging van vandaag komt voort uit variëteit, niet uit volume of snelheid.)

Geen bugs, geen stress - Uw stapsgewijze handleiding voor het creëren van levensveranderende software zonder uw leven te vernietigen

Je kunt je programmeervaardigheden niet verbeteren als niemand om softwarekwaliteit geeft.

Recente statistieken over het wereldwijde gegevensgebruik zijn verbluffend. Studies tonen aan dat ongeveer 90 procent van alle gegevens over de hele wereld pas in de afgelopen jaren is gemaakt. Wereldwijd bedroeg mobiel verkeer ongeveer 2016 exabytes per maand over 2016, volgens een schatting, en dat aantal zal naar verwachting met ongeveer zeven keer toenemen in het volgende half decennium.

Afgezien van volume, zijn verscheidenheid (de snel toenemende diversiteit in soorten gegevens naarmate nieuwe media zich ontwikkelen en uitbreiden) en snelheid (de snelheid waarmee elektronische media naar datacenters en hubs worden verzonden) ook belangrijke factoren in hoe bedrijven zich aanpassen aan het snelgroeiende veld van diep leren. En om het mnemonic-apparaat uit te breiden, zijn de afgelopen jaren verschillende andere v-woorden toegevoegd aan de lijst met big data-pijnpunten, waaronder:

  • Geldigheid: de meting van de nauwkeurigheid van invoergegevens in big-datasystemen. Ongeldige gegevens die niet worden gedetecteerd, kunnen aanzienlijke problemen en kettingreacties veroorzaken in machine learning-omgevingen.
  • Kwetsbaarheid: big data roept natuurlijk beveiligingsproblemen op, gewoon vanwege de schaal. En hoewel er een groot potentieel wordt gezien in beveiligingssystemen die worden ingeschakeld door machinaal leren, worden die systemen in hun huidige incarnaties opgemerkt vanwege hun gebrek aan efficiëntie, met name vanwege hun neiging om vals alarm te genereren.
  • Waarde: het bewijzen van de potentiële waarde van big data (in het bedrijfsleven of elders) kan om verschillende redenen een grote uitdaging zijn. Als een van de andere pijnpunten in deze lijst niet effectief kan worden aangepakt, kunnen ze in feite negatieve waarde toevoegen aan elk systeem of organisatie, misschien zelfs met een catastrofaal effect.

Andere alliteratieve pijnpunten die aan de lijst zijn toegevoegd, zijn variabiliteit, waarheidsgetrouwheid, volatiliteit en visualisatie - allemaal met hun eigen unieke sets uitdagingen voor big data-systemen. En er kan nog steeds meer worden toegevoegd als de bestaande lijst (waarschijnlijk) na verloop van tijd afneemt. Hoewel het voor sommigen misschien een beetje gekunsteld lijkt, bevat de mnemonische "v" -lijst ernstige problemen waarmee big data wordt geconfronteerd die een belangrijke rol spelen in de toekomst van diep leren.

Het Black Box-dilemma

Een van de meest aantrekkelijke kenmerken van diep leren en kunstmatige intelligentie is dat beide bedoeld zijn om problemen op te lossen die mensen niet kunnen oplossen. Dezelfde fenomenen die verondersteld worden dat toe te staan, vormen echter ook een interessant dilemma, dat zich voordoet in de vorm van wat bekend staat als de 'zwarte doos'.

Het neurale netwerk dat door het proces van diep leren is gecreëerd, is zo enorm en zo complex dat zijn ingewikkelde functies in wezen ondoorgrondelijk zijn voor menselijke observatie. Gegevenswetenschappers en ingenieurs hebben misschien een diepgaand begrip van wat er in diepgaande leersystemen gaat, maar hoe ze vaker tot hun outputbeslissingen komen, is nog niet volledig verklaard.

Hoewel dit misschien geen belangrijk probleem is voor bijvoorbeeld marketeers of verkopers (afhankelijk van wat ze op de markt brengen of verkopen), vereisen andere industrieën een bepaalde hoeveelheid procesvalidatie en redenering om enig resultaat uit de resultaten te halen. Een financiële dienstverlener kan bijvoorbeeld deep learning gebruiken om een ​​zeer efficiënt kredietscoringsmechanisme op te zetten. Maar creditscores moeten vaak vergezeld gaan van een soort verbale of schriftelijke verklaring, die moeilijk te vormen zou zijn als de feitelijke creditscore-vergelijking volledig ondoorzichtig en onverklaarbaar is.

Dit probleem strekt zich ook uit naar vele andere sectoren, met name op het gebied van gezondheid en veiligheid. Geneeskunde en transport kunnen beide op belangrijke manieren baat hebben bij diepgaand leren, maar worden ook geconfronteerd met een aanzienlijk obstakel in de vorm van de zwarte doos. Elke output resulteert in die velden, ongeacht hoe nuttig, volledig zou kunnen worden weggegooid vanwege de volledige onduidelijkheid van hun onderliggende algoritmen. Dit brengt ons tot misschien wel het meest controversiële pijnpunt van allemaal ...

Regulatie

In het voorjaar van 2016 heeft de Europese Unie de Algemene Verordening Gegevensbescherming (AVG) aangenomen, die (onder andere) burgers het "recht op een verklaring" verleent voor geautomatiseerde beslissingen die zijn gegenereerd door systemen voor machinaal leren die hen "aanzienlijk beïnvloeden". De verordening is gepland om in 2018 van kracht te worden en baart zorgen bij technologiebedrijven die geïnvesteerd zijn in diep leren vanwege de ondoordringbare zwarte doos, die in veel gevallen de door de AVG opgedragen verklaring zou belemmeren.

De "geautomatiseerde individuele besluitvorming" die de AVG wil beperken, is een essentieel kenmerk van diepgaand leren. Maar zorgen over deze technologie zijn onvermijdelijk (en grotendeels geldig) wanneer het potentieel voor discriminatie zo groot is en de transparantie zo laag. In de Verenigde Staten reguleert de Food and Drug Administration op dezelfde manier het testen en op de markt brengen van geneesmiddelen door te vereisen dat die processen controleerbaar blijven. Dit heeft obstakels voor de farmaceutische industrie veroorzaakt, zoals naar verluidt het geval is geweest voor het in Massachusetts gevestigde biotechnologiebedrijf Biogen, dat vanwege de FDA-regel geen oninterpreteerbare deep learning-methoden kon gebruiken.

De implicaties van diep leren (moreel, praktisch en daarbuiten) zijn ongekend en, eerlijk gezegd, vrij diepgaand. Veel bezorgdheid omgeeft de technologie, grotendeels vanwege een combinatie van het verstorende potentieel en de ondoorzichtige logica en functionaliteit.Als bedrijven kunnen aantonen dat er sprake is van tastbare waarde binnen diep leren die alle denkbare bedreigingen of gevaren overstijgt, kunnen ze ons helpen door de volgende kritieke fase van kunstmatige intelligentie.