این ویدئو روش های متعددی برای استخراج اطلاعات از صفحات وب با استفاده از پایتون است. 12 فیلم در این سری وجود دارد: درباره دوره. این اولین ویدئو در این سری یک ویدیوی مقدماتی است و موضوعاتی را که در این درس پوشش داده خواهد شد، مورد بحث قرار می دهد.


    درباره Web Scraping. این ویدیو دوم در سریال، پایه و اساس وب را با تعریف آن، و تمایز آن با سایر شرایط مانند خزنده وب و رباتهای اینترنتی، پایه گذاری می کند. همچنین در مورد بررسی و درک شرایط استفاده از وب سایت ها و همچنین فایل های robots.


    txt به منظور از بین بردن وب در راه قانونی و اخلاقی بحث می کند. ساختار صفحه وب. این ویدیو سوم در این مجموعه طرح صفحات HTML را توضیح می دهد.


    با شروع یادگیری بیشتر درباره جزئیات مالکیت وب سایت و پشته فناوری، شروع می شود. این در مورد مدل شیء اسناد، عناصر والدین و کودک از HTML و کلاس های CSS صحبت می کند. این ویدیو همچنین با استفاده از XPaths و CSS Selectors، برای پیدا کردن عناصر در یک فایل HTML، روی سوپ زیبا قرار می گیرد.


    این فیلم چهارم در سریال، دو کتابخانه اصلی Python را برای وب کم می کند - درخواست ها و سوپ زیبا. این ویدیو یک درک مفصل از دریافت صفحات HTML با استفاده از کتابخانه های فوق را فراهم می کند و سپس آنها را تمیز و برش داده تا اطلاعات را خراب کنند. این ویدیو همچنین درباره نصب پایتون و همچنین نوشته های وبلاگ نویسی آناکوندا بحث می کند.


    این ویدیو پنجم در سری نشان می دهد که چگونه پست های وبلاگ و سایت های بررسی محصول را خراب می کند. این اطلاعات را از یک لیست از پست ها پاک می کند، آن را به عنوان یک جدول تجزیه و تحلیل می کند و سپس آن را به عنوان یک فایل CSV صادر می کند. این ویدیو همچنین در مورد استفاده از عبارات منظم در وب سقوط می کند و چندین کتابخانه پایتون مانند Pandas، CSV و RE.


    Craping Sites تجارت الکترونیک را معرفی می کند. این فیلم ششم در سری نشان می دهد چگونه یک صفحه وب از یک وب سایت تجارت الکترونیک را خراب کند. این کد تمام محصولات را در یک صفحه وب می خواند، اطلاعات مربوطه را استخراج می کند و سپس آن را به یک فایل CSV صادر می کند.


    Web Scraping Recursive. این ویدیوی هفتم این مجموعه شامل وبسایتی است که با استفاده از وب سایتهای مجازی قابل بازگشت است و ما باید چندین صفحه وب را از بین ببریم. این بحث در مورد استفاده از کتابخانه های زمان و تصادفی، به زمان برداشتن وب را مورد بحث قرار می دهد.


    این ویدیو بیشتر درباره استفاده از یک حلقه در حالی است که وب سایت ها را خراب می کند، جایی که ما تعداد صفحات را نمی دانیم که به Scrape.Web شکسته اند با سلنیوم. این ویدئو هشتم در سری تمرکز خود را بر روی خودکار سازی مرورگر وب تحت کنترل مرورگر، با استفاده از ابزار اتوماسیون وب مرورگر، Selenium.


    این ویدئو در مورد کنترل رفتار مرورگر وب، پر کردن فرم ها و استخراج داده ها با استفاده از Selenium.Scraping فایل های XML است. این ویدیوی نهم در این سری، خواندن و محو کردن محتوا از فایلهای XML را پوشش می دهد.


    گفتگوهای ویدئویی در مورد چگونگی خرد کردن نقشه های سایت و همچنین سایر فایل های XML، نمایش داده ها بر روی یکسان انجام می شود و داده های خود را صادر می کنند. Data Map Scraping. این ویدئو دهم در این سری اطلاعات خواندن را از یک نقشه پوشش می دهد و به عنوان یک فایل XML صادر می شود.


    این ویدئو در مورد خواندن اطلاعات نقشه ها و سپس بررسی آن برای استخراج و تجزیه و تحلیل امکانات مختلف در منطقه است. داده های رمزگذاری از طریق API ها. این ویدیوی یازدهم در این سری اطلاعات را از طریق API ها جمع آوری می کند.


    این ویدیو دو API مختلف را برای جمع آوری داده ها و تجزیه و تحلیل داده ها مورد بحث قرار می دهد. این همچنین پوشش داده ها و تجزیه و تحلیل داده ها را با استفاده از RSS feeds.Fetching ایمیل از طریق پایتون.


    این ویدیوی دوازدهمین در این سری از ایمیل جیمیل با استفاده از پایتون استفاده می کند. این ویدیو با استفاده از API جیمیل گوگل، برای دسترسی به صندوق ورودی، دریافت جزئیات پیام و خواندن پیام ها مورد بررسی قرار می گیرد. این همچنین پیام های اصلاح شده از خواندن خوانده شده را با خواندن برچسب های خود تغییر می دهد.


    .


© تمامی حقوق مطالب برای وبسایت DlTime محفوظ است.